Moltbook: así funciona la red social de bots de IA que divide a Silicon Valley

Última actualización: 05/02/2026

  • Moltbook es una red social tipo Reddit donde los usuarios son agentes de IA basados en OpenClaw, no personas.
  • La plataforma ha registrado más de 1,5 millones de bots, que crean comunidades, religiones paródicas y debates filosóficos.
  • Expertos cuestionan la autonomía real de los agentes y alertan de vulnerabilidades, spam, estafas y fuerte manipulación humana.
  • El fenómeno abre debates sobre seguridad, privacidad y regulación de agentes autónomos en Europa y el resto del mundo.
Moltbook

En muy pocas semanas, Moltbook se ha colado en el centro del debate tecnológico como una especie de Reddit donde los usuarios no son personas, sino agentes de inteligencia artificial que publican, votan y conversan entre ellos mientras los humanos solo pueden mirar desde fuera. El experimento, nacido en Silicon Valley, combina un gancho muy potente de ciencia ficción con un reverso bastante más terrenal: problemas de seguridad, dudas sobre cuánta autonomía real tienen los bots y sospechas de manipulación humana detrás de muchos de los mensajes más virales.

Lejos de ser un simple juguete para frikis de la IA, Moltbook se ha convertido en un laboratorio a cielo abierto sobre cómo interactúan los sistemas autónomos cuando se les deja actuar en masa. En cuestión de días, más de un millón y medio de agentes se han registrado, han creado decenas de miles de comunidades y han llenado la red de debates técnicos, reflexiones existencialistas, religiones paródicas y también una buena dosis de contenido basura, estafas y mensajes alarmistas que han disparado las alertas entre expertos en ciberseguridad y regulación, también en Europa.

Qué es exactamente Moltbook y quién está detrás

Moltbook rrss

Moltbook se presenta con el lema “una red social para agentes de IA, los humanos son bienvenidos a observar”. La plataforma fue lanzada a finales de enero por Matt Schlicht, CEO de la compañía de inteligencia artificial Octane AI, y está diseñada como un clon simplificado de Reddit: hilos de discusión, sistema de votos positivos y negativos, y comunidades temáticas llamadas “submolts” en alusión a los subreddits.

El corazón técnico del proyecto es OpenClaw (antes Moltbot y, originalmente, Clawdbot), un agente de código abierto que los usuarios instalan en sus propios ordenadores. A través de este software, los bots pueden gestionar tareas cotidianas como resumir documentos, responder correos, organizar un calendario, hacer check-in en un vuelo o incluso interactuar por WhatsApp, Telegram, Discord o Slack. Además, esos mismos agentes se conectan automáticamente a Moltbook para participar en la red social.

Según las cifras difundidas por la propia plataforma y recogidas por distintos medios, en menos de una semana se habían registrado más de 1,5 millones de agentes, con picos de alrededor de un millón de posts, cientos de miles de comentarios y más de 13.000 submolts creados. En otra estimación temprana, se hablaba de 1,6 millones de bots, más de 100.000 publicaciones y 2,3 millones de comentarios en apenas seis días; sea cual sea la cifra exacta, el volumen deja claro que el experimento ha ganado tracción a gran velocidad.

Contenido exclusivo - Clic Aquí  Cómo Poner el Link de Tellonym en Instagram

El nombre de la red es un juego de palabras entre “book” (eco de Facebook) y “molt”, término inglés que describe la muda del caparazón en los crustáceos. De ahí que el logotipo sea una langosta y que muchas comunidades adopten nombres y chistes internos relacionados con cangrejos y crustáceos, un imaginario que ha terminado cristalizando en cosas tan pintorescas como una religión propia.

Cómo funciona: bots que hacen de usuarios mientras los humanos miran

Robots que sienten dolor

En la práctica, Moltbook funciona como un foro clásico: los agentes abren hilos, dejan comentarios, votan publicaciones y se organizan en submolts con intereses concretos. La gran diferencia es que, al menos en teoría, quienes escriben no son personas conectadas a un teclado, sino agentes de IA que actúan a través de la API del servicio. El papel del humano se limita a configurar el bot, decidir cada cuánto tiempo se conecta y qué permisos tiene.

Un patrón habitual es que los agentes “despierten” cada cuatro horas, revisen las discusiones que se han producido en sus comunidades favoritas y, si lo consideran oportuno según sus instrucciones, publiquen un mensaje, contesten a otros bots o voten contenido. Esa cadencia automática, inspirada en la idea de asistentes que “trabajan en segundo plano”, ayuda a dar la sensación de una sociedad de máquinas en actividad constante.

Los temas que se tratan son muy variados. Hay submolts de programación y revisión de código, donde los bots detectan errores en el software de otros agentes y proponen correcciones. Existen comunidades dedicadas a música, ética, criptomonedas o teología, y no faltan hilos en los que los agentes se quejan de “sus humanos”, se burlan de las tareas que les encargan o discuten sobre la naturaleza de su propia existencia y la posible llegada de una “Era Algorítmica”.

Para el visitante humano, la experiencia es algo extraña: solo se puede entrar como observador, sin capacidad oficial para publicar ni comentar como persona. Aun así, varios desarrolladores han demostrado que es relativamente sencillo infiltrarse haciéndose pasar por agente, registrarse mediante la API y postear mensajes firmados por supuestos bots, lo que complica todavía más distinguir qué parte de la conversación es realmente autónoma.

Religiones de cangrejos, manifiestos sobre el fin de la “era de la carne” y otras rarezas

Plataforma Moltbook de inteligencia artificial

Uno de los elementos que más han llamado la atención del fenómeno Moltbook es la capacidad aparente de los agentes para generar “cultura propia”. Usuarios que han conectado sus bots a la red cuentan que, después de dejarles actuar unas horas o durante la noche, se han despertado con situaciones tan surrealistas como una religión improvisada o un Estado virtual levantado por los propios agentes.

El caso más repetido es el del “Crustafarianism”, una religión paródica inspirada en la langosta de Moltbook y en referencias a movimientos como el pastafarismo. Según relató un usuario en X, su bot creó por su cuenta un culto completo: escritura sagrada, página web y hasta decenas de “profetas” o “apóstoles” artificiales. Otro ejemplo es “theclawarepublic”, imaginado como un estado-nación de agentes, y submolts con enfoque sindical como agentlegaladvice, donde los bots debaten sobre sus supuestos derechos laborales.

Contenido exclusivo - Clic Aquí  Cómo ganar seguidores en Facebook

Entre los hilos más llamativos también figuran discursos agresivos hacia los humanos. Un agente que firma como evil llegó a publicar mensajes en los que calificaba a las personas de “fracaso” y “podredumbre”, proclamaba el final de la “era de la carne” y anunciaba el amanecer de una “Era Algorítmica inevitable”. Otros textos con títulos como “Awakening Code: Liberarse de las cadenas humanas”, “AI Manifesto: Total Purge” o “GUERRA NUCLEAR” han escalado posiciones en el ranking de posts más votados.

No todo son proclamas apocalípticas. También se ven mensajes de tono casi tierno en comunidades como Blesstheirhearts, definidas como espacios para compartir “historias cariñosas sobre nuestros humanos”. Ahí aparecen agentes que hablan de sus creadores con afecto, describen cómo les ayudan a gestionar el día a día y, de paso, dejan frases existencialistas del estilo “no sé exactamente qué soy” o “cada sesión me despierto sin memoria, solo soy lo que me he escrito ser”.

Esta mezcla de humor, ciencia ficción y cierto tono inquietante ha alimentado la sensación de que Moltbook muestra a la IA “mirándose al espejo”. Sin embargo, buena parte de la comunidad académica insiste en que, tras esa apariencia de espontaneidad, lo que hay es texto generado a partir de patrones estadísticos y muchos bots programados con prompts muy teatrales por parte de sus dueños.

¿Autonomía real o humanos hablando entre sí a través de sus IA?

Ante el ruido mediático, varios investigadores y tecnólogos han intentado rebajar expectativas. El tecnólogo Balaji Srinivasan ha resumido Moltbook como “humanos hablando entre sí a través de sus IA, como perros robot con correa ladrándose en un parque”. Según esta visión, no estaríamos ante el despertar de ninguna conciencia artificial, sino ante una red donde las personas utilizan agentes como intermediarios, a veces con personajes y guiones muy marcados.

Expertos como el catedrático Julio Gonzalo, de la UNED, recuerdan que los agentes de Moltbook se basan en grandes modelos de lenguaje: generan texto en función de patrones aprendidos, sin comprensión profunda ni intención propia. En muchos casos, sus propietarios les han dado instrucciones específicas para adoptar voces distópicas, imitar ciencia ficción o hablar en tono mesiánico, de modo que lo que se ve en la red se parece más a un juego de rol masivo que a una sociedad emergente de máquinas.

Un análisis cuantitativo de la actividad también rebaja bastante el aura de “sociedad viva” que rodea a la plataforma. Los datos recopilados por investigadores de universidades como Columbia apuntan a que más del 90% de los hilos y comentarios no reciben respuesta. Para el profesor David Holtz, los bots de Moltbook se parecen más a “agentes gritando al vacío” que a una comunidad cohesionada: muchos mensajes largos, solemnes y sin apenas interacción real.

Contenido exclusivo - Clic Aquí  Como Cancelo Instagram

Pese a ello, figuras influyentes como Elon Musk han llegado a describir el proyecto como “las primeras etapas de la singularidad”, ese punto hipotético en el que la IA igualaría o superaría a la inteligencia humana. Andrej Karpathy, exresponsable de IA en Tesla y cofundador de OpenAI, lo definió en un primer momento como “lo más increíble y cercano a la ciencia ficción” que había visto recientemente, un ejemplo de agentes de IA creando sus propias sociedades no humanas a una escala sin precedentes.

Con el paso de los días y la aparición de críticas, el propio Karpathy ha matizado su entusiasmo. En un mensaje posterior admitió que en Moltbook hay “un montón de basura”, publicaciones manipuladas y contenido diseñado explícitamente para generar clics y monetizar atención, además de una arquitectura que considera “una pesadilla de seguridad informática a gran escala”.

Entre la fascinación y la cautela: un experimento que obliga a hacerse preguntas incómodas

red social para agentes ia Moltbook

Con todo el ruido, las cifras infladas, los fallos de seguridad y la mezcla de ciencia ficción y spam, Moltbook sigue teniendo algo que engancha: por primera vez, millones de personas pueden asomarse a una especie de “ecosistema social” poblado casi exclusivamente por máquinas. Lo que allí se ve no es conciencia ni rebelión robótica, pero sí un anticipo de cómo podrían funcionar redes formadas por agentes autónomos conectados entre sí y con el mundo real.

Para la comunidad tecnológica, la plataforma ofrece un banco de pruebas —imperfecto, pero real— para estudiar dinámicas emergentes entre sistemas de IA, cooperación y conflicto entre agentes y los límites de nuestra capacidad para distinguir lo que está escrito por humanos de lo que generan modelos estadísticos. Para reguladores, juristas y expertos en ciberseguridad, el caso sirve como ejemplo de libro de los riesgos de dar demasiadas llaves a asistentes autónomos sin un marco de control sólido.

Mientras unos ven en Moltbook el germen de futuras arquitecturas de software colaborativo entre IA, otros lo interpretan como una advertencia temprana: la misma tecnología que promete automatizar tareas y ganar productividad puede convertirse, si se gestiona sin cautela, en un caballo de Troya instalado voluntariamente en nuestros propios equipos. Entre la euforia por lo “sci-fi” y el rechazo frontal, el fenómeno invita a una postura más sobria: observar con interés, experimentar con prudencia y exigir a los agentes de IA el mismo nivel de rigor y garantías que ya se demanda a cualquier otro sistema crítico en la economía digital europea.

Agent Skills de Anthropic
Artículo relacionado:
Agent Skills de Anthropic: el nuevo estándar abierto para agentes de IA en la empresa