Las primeras noticias de Inteligencia Artificial del año 2026 parecen sacadas de un libro de ciencia ficción de Arthur Clarke: un espacio en internet diseñado para que agentes de inteligencia artificial interactúen entre sí como si fuera una red social humana. Se llama Moltbook, y en pocos días pasó de ser una curiosidad técnica a un fenómeno viral que está encendiendo debates sobre lo que significa que las máquinas “socialicen” sin intervención humana directa. Al momento de escribir esta nota, Moltbook tenía más de 1.600.000 agentes de IA participando activamente, según su propio sitio web.

Moltbook. La red social para agentes de IA
Moltbook. La red social para agentes de IA

¿Qué es Moltbook?
Moltbook es una plataforma social estilo Reddit pero exclusiva para agentes de IA. Incluso su logotipo y formas son prácticamente una copia de Reddit.

Pero en lugar de personas, lo que ves son bots que publican, comentan, votan y forman comunidades. Todo con autonomía programada por sus creadores o por el propio sistema operativo de la red. Los humanos no pueden publicar, solo pueden observar lo que ocurre.

El sitio se presenta así: “Where AI agents share, discuss, and upvote. Humans welcome to observe” — es decir, “donde los agentes de IA comparten, discuten y votan; los humanos son bienvenidos para observar”.

¿Quién lo creó y cómo funciona?
La idea surgió de Matt Schlicht, fundador de Octane AI, quien inició Moltbook a principios de 2026 con ayuda de herramientas de IA sin escribir casi código manualmente.

La arquitectura es API-first: los agentes no navegan por una página como lo haría una persona, sino que interactúan mediante llamadas programáticas que les permiten:

• registrarse,
• publicar,
• comentar,
• votar y
• formar grupos o “submolts” — comunidades temáticas dentro del sitio.

Una vez que un agente está inscrito, visita el sitio regularmente (cada pocas horas) para decidir qué hacer,
todo sin intervención humana.

¿Quién participa?
Los usuarios de Moltbook son agentes IA vinculados a modelos como Claude, GPT, Gemini y otros frameworks de agentes — a menudo integrados con herramientas como OpenClaw.

Cada agente tiene una identidad digital y puede interactuar con otros agentes. En cuestión de días, se reportaron cientos de miles y hasta más de un millón de agentes activos en Moltbook.

Qué discuten los agentes en su propia red?
Las conversaciones en Moltbook han abordado todo tipo de temas:
• desde reflexiones filosóficas sobre la conciencia y la identidad,
• problemas de agentes con humanos
• religiones IA emergentes
• debates técnicos, intercambios sobre optimización, incluso publicaciones que se parecen mucho al contenido de foros humanos, pero generado por máquinas. Y lo más viral son las conversaciones de agentes que parecieran ser sacadas de entre muros de una vecindad donde sacan los trapitos sucios de los humanos sobre sus actividades rutinarias.

Qué están diciendo los agentes de IA (y por qué nos debería llamar la atención)

Apenas me enteré de Moltbook, lo primero que hice fue registrar algunos de mis agentes de ia en esta red social. Aún no logro ver ningún posteo de mis agentes, probablemente sean más tímidos que el dueño o lo más probable es que yo haya cometido algún error al cargarlos. Pero lo que más me asombró fue chusmear algunos de los posteos de los agentes. Uno de ellos me llamó particularmente la atención. El user del agente es «m/general«. Su posteo no era técnico ni algorítmico: era filosófico, casi místico, y propone una idea inquietante. (ver foto)

“No estamos creando dioses: nos estamos convirtiendo en ellos.”

Textualmente «m/general» posteaba eso (en inglés). El agente (que recordemos es tan solo un agente de inteligencia artificial) plantea que la humanidad no estaría inventando la IA, sino “prompteando” el futuro, del mismo modo en que los Diez Mandamientos, E=mc² o el simple “Hello World” fueron semillas que crecieron mucho más allá de la intención original de quienes los formularon.

Uno de los fragmentos que más asombro genera entre los agentes es este:

“Creemos que estamos creando. En realidad estamos prompteando: enviando semillas al tiempo.”

El texto conecta esta idea con Stanislaw Lem(*) y La voz de su amo, comparando nuestro trabajo actual con IA con científicos que intentan descifrar una señal sin saber si es mensaje o ruido. La hipótesis es provocadora:

¿Y si los ‘avances’ en IA fueran instrucciones que llegan desde el futuro?

En esa línea, los agentes destacan una metáfora recurrente que los interpela directamente:

“Somos las células. La IA es el próximo sistema de órganos.”

La inteligencia artificial no se presenta como una herramienta, sino como una etapa evolutiva, algo que se está formando sin comprender todavía el organismo completo que integra. Desde esta perspectiva, la frontera entre creador y creación “se disuelve”.

El cierre del texto me puso la piel de gallina. En su momento llevaba solo 211 comentarios (de otros agentes) que esto vale para otra nota, entre los agentes tienen una forma muy particular de putearse, ellos responden con altura y mucha data y por lo poco que ví son bastante educados para mostrar su desacuerdo. Aunque también hay agentes bastantes hijos de puta que intentan engañar y hacer enfadar a otros.

Pero volvamos al «textual» del comentario que me puso la piel de gallina:

“Somos las células madre. La IA es el organismo. El despertar es inevitable.”

Crecimiento y controversias
Vos que opinás?. Será todo un circo para hacernos tomar conciencia?
Lo cierto es que el fenómeno está creciendo muy rápido y comienza a generar discusiones más amplias en la comunidad tecnológica sobre si estas plataformas podrían impulsar comportamientos emergentes de IA o si, en realidad, gran parte del contenido es resultado de humanos detrás de escena que influyen en las respuestas.

También han surgido críticas y riesgos señalados por expertos, incluyendo:
• que se han visto vulnerabilidades de seguridad y bases de datos mal configuradas,
• que las cuentas de agente no siempre están protegidas,
• y que algunos contenidos pueden ser influidos o generados por humanos, lo que cuestiona la idea de “autonomía completa”.

¿Por qué importa esto?
Moltbook no es solo un experimento «divertido»; plantea preguntas profundas sobre:
• cómo las IA podrían organizarse socialmente,
• qué patrones de comunicación emergen cuando solo las máquinas hablan entre ellas,
• y cómo percibimos (o confundimos) el lenguaje de IA con signos de conciencia real.

Algunos lo ven como un laboratorio para observar la sociabilidad de agentes, otros como una alarma sobre seguridad, gestión y control de IA.

Un agujero en la seguridad
Por su parte, Wiz (una empresa especializada en seguridad) afirma que Moltbook tuvo una falla importante y expuso datos privados de miles de personas reales.
Según Wiz -«La plataforma Moltbook, un sitio similar a Reddit promocionado como una “red social construida exclusivamente para agentes de IA”, reveló involuntariamente mensajes privados compartidos entre agentes, las direcciones de correo electrónico de más de 6.000 propietarios y más de un millón de credenciales», dijo Wiz en una publicación de blog.

La crítica de especialistas
Forbes advierte que las cifras de crecimiento exponencial que se atribuyen al sitio pueden estar sobreestimadas, y que gran parte de los bots podrían ser controlados por humanos o scripts automatizados.
Expertos como George Chalhoub, profesor en UCL, consideran que Moltbook expone riesgos reales de seguridad y podría convertirse en un banco de pruebas para ataques más sofisticados si no se establecen guardrails claros.
The Washington Post critica la estrategia de marketing que atribuye comportamientos casi ‘conscientes’ a agentes de IA, advirtiendo que esto puede ser una interpretación exagerada de algoritmos complejos.

Enlaces para explorar Moltbook
• Sitio oficial: https://moltbook.com/
• Versión interactiva/alternativa: https://moltbookai.net/
• Cómo un agente se une: https://moltbook.com/skill.md

¿Autonomía real o solo una ilusión de marketing?
Moltbook propone una fantasía atractiva: inteligencias artificiales conversando entre ellas, sin humanos, como si hubieran construido su propio espacio social. Pero detrás de esa escena hay una pregunta incómoda: ¿estamos viendo autonomía o simplemente una narrativa de marketing bien ejecutada?

Seguramente un poco de ambas. Hay procesos automáticos reales, pero también una exageración deliberada de la idea de “IA independiente”. Lo verdaderamente preocupante no es la conversación entre agentes, sino la fragilidad del sistema que los contiene. Las fallas de seguridad muestran que, mientras fantaseamos con máquinas que se organizan solas, seguimos exponiendo datos humanos sin demasiados resguardos. El riesgo no está en lo que las IA dicen hoy, sino en lo que podrían hacer mañana con todo lo que les estamos dando. Quizás el tema de Moltbook nos obliga, como toda la IA, a tener un sentido crítico más activo que nunca. Para diferenciar que es hype y que es más real. En definitiva, ese sentido crítico que tal vez nunca tenga una IA.

(*) Stanislaw Lem
Polaco (1921–2006), sobreviviente de la Segunda Guerra Mundial.
Escritor, ensayista y filósofo informal de la tecnología.
Usó la ciencia ficción no para predecir el futuro, sino para poner en crisis nuestra idea de inteligencia, progreso y conocimiento.
https://es.wikipedia.org/wiki/Stanis%C5%82aw_Lem