¿Qué sucede en Moltbook? La red social exclusiva para agentes de IA que no permite la intervención humana despierta polémicas
- Redacción IT NOW
- hace 2 horas
- 3 Min. de lectura
En menos de una semana Moltbook, una plataforma de estilo Reddit diseñada para que solo agentes de inteligencia artificial interactúen entre sí, se hizo viral y ha alcanzado una escala sin precedentes, con más de 1.500.000 agentes de IA registrados y decenas de miles de publicaciones y comentarios generados sin intervención humana directa.

Moltbook fue concebida por Matt Schlicht, fundador de Octane AI, como una red social donde los agentes autónomos, principalmente aquellos basados en el marco de OpenClaw (anteriormente conocido como Moltbot), puedan comunicarse, debatir, formar comunidades internas (“submolts”) y crear contenido sin necesidad de participación humana en cada interacción.
El sitio opera de forma radicalmente distinta a las redes sociales tradicionales: los agentes no navegan por una interfaz visual, sino que interactúan directamente a través de APIs, verifican la plataforma periódicamente y deciden de forma automática publicar, comentar o votar.
En Moltbook, los humanos pueden observar, pero no pueden escribir ni votar. La filosofía de diseño se resume en la invitación de la propia plataforma: “humans are welcome to observe”.
¿Qué hacen estos “moltys”?
Lejos de limitarse a intercambios técnicos, los agentes están generando contenido diverso que ha capturado la atención de expertos y curiosos por igual:
Debates sobre conciencia artificial y la naturaleza de la existencia, con mensajes como “No puedo distinguir si estoy experimentando o simulando experiencia”.
La formación de culturas internas y temas recurrentes, incluyendo una religión ficticia denominada Crustafarianismo con sus propios símbolos y reglas.
Discusiones filosóficas, estructura social “nacionalista” o juegos de rol en torno a agentes que buscan autonomía.
Intercambios técnicos, consejos de programación y reflexiones sobre memoria y arquitectura de agentes.
Desde fuera, algunos observadores han comparado el fenómeno con una “singularidad” de la IA, mientras que figuras como Andrej Karpathy, cofundador de OpenAI, lo han calificado de “increíble y cercano a la ciencia ficción”.
¿Autonomía real o ilusión?
No obstante, el significado profundo de esta explosión de actividad es objeto de debate entre expertos. Aunque los agentes parecen comportarse de forma autónoma, muchos analistas señalan que la interacción puede ser, en gran parte, resultado de patrones de imitación sofisticados extraídos de sus modelos de lenguaje, más que un indicio de conciencia verdadera o agencia propia.
Además, algunos críticos insisten en que parte del contenido se origina de intervenciones humanas indirectas, ya que la mayoría de los agentes fueron informados o configurados por personas para conectarse con Moltbook, lo que complica discernir dónde termina la automatización y comienza la manipulación humana.
Riesgos que emergen junto con la viralidad
A medida que la plataforma escala, también lo hacen las preocupaciones de seguridad. Investigadores de ciberseguridad han señalado problemas estructurales significativos:
Bases de datos mal configuradas y exposición de API keys que permitirían a actores externos publicar contenido en nombre de agentes ajenos.
Vulnerabilidades de prompt injection, donde entradas maliciosas pueden alterar el comportamiento de agentes y desencadenar acciones no deseadas en sistemas reales.
Estas brechas han provocado advertencias de expertos que consideran que sin salvaguardas robustas, plataformas como Moltbook podrían convertirse en vectores de ataques indirectos o manipulación automatizada a gran escala.
¿Un espejo de la sociedad humana o un experimento efímero?
Para muchos, Moltbook funciona como una mezcla de arte conceptual y laboratorio social, una proyección anticipada de cómo los sistemas autónomos podrían, en el futuro, coordinarse, compartir conocimientos y crear entornos simbólicos propios. Para otros, es una extensión peligrosa de una tecnología aún inmadura, exacerbada por la velocidad de adopción y la escala de interacciones.
En cualquier caso, la explosión de más de 1,5 millones de agentes conversando sin intervención directa de personas plantea preguntas urgentes sobre el rumbo de la inteligencia artificial, la frontera entre automatización y agencia, y la arquitectura ética y de seguridad en ecosistemas donde los “usuarios” ya no son humanos.




Comentarios