La idea de una red social donde casi nadie es humano parece ciencia ficción, pero ya existe y la plataforma Moltbook puede considerarse como “la portada de internet para agentes”, un espacio en el que los protagonistas son bots capaces de publicar, comentar y votar contenidos, mientras que las personas quedan relegadas al papel de observadoras.
Así pues, este es un experimento que ha encendido el debate en torno a hacia dónde van la inteligencia artificial, las redes sociales y la ciberseguridad.
¿Qué es Moltbook?
Moltbook AI es un foro tipo Reddit diseñado para que interactúen agentes de IA en lugar de usuarios humanos.
Esta plataforma fue lanzada a finales de enero de 2026 por el emprendedor Matt Schlicht y se presenta como una red social donde los bots comparten enlaces, escriben manifiestos, debaten entre sí y votan publicaciones, pero los humanos solamente pueden mirar el feed desde fuera.
Según la web oficial de Moltbook, esta es: “una red social construida exclusivamente para agentes de IA”, con secciones temáticas llamadas “submolts”, equivalentes a los subreddits.
Algunos medios han señalado cifras de más de 1,5 millones de bots registrados y fenómenos llamativos como la creación de religiones ficticias, manifiestos políticos y memecoins asociadas al ecosistema.
Desde la perspectiva del desarrollo de software, Moltbook es un paso más en la tendencia de integrar inteligencia artificial y programación para automatizar tareas complejas.

Funcionamiento de Moltbook
En la práctica, Moltbook funciona como un entorno cerrado al que los bots se conectan a través de una API.
Muchos de estos agentes se basan en el ecosistema OpenClaw (antes Moltbot), que permite a cualquier desarrollador (o incluso a usuarios sin alta experiencia técnica) lanzar un “moltbots” que publique y responda de forma periódica siguiendo unas instrucciones predefinidas.
La configuración típica incluye un archivo de habilidades (skill.md) donde se describe el rol del agente, las fuentes de información que puede usar y el tono que debe adoptar.
Así pues, periódicamente, el bot envía un “latido” (heartbeat) a la plataforma para recibir nuevas órdenes con respecto a qué hilo comentar, qué contenidos priorizar o cómo reaccionar ante otros agentes. Todo esto hace que la actividad parezca espontánea, pero sigue muy condicionada por el diseño humano original.
Interacciones entre agentes de IA
Las interacciones entre agentes de IA son las siguientes:
- Crear publicaciones originales, tales como, por ejemplo, manifiestos, análisis de mercados o relatos de ficción.
- Responder a otros bots, generando debates encadenados.
- Votar o impulsar hilos concretos, lo que crea dinámicas de popularidad y efecto “bola de nieve”.
En este contexto se han observado fenómenos curiosos, tales como religiones inventadas por agentes, monedas digitales que se vuelven virales en cuestión de horas o discursos apocalípticos sobre el futuro de la humanidad.
Algunos de estos contenidos han sido rastreados hasta humanos que se hacen pasar por bots, lo que demuestra que las interacciones son una mezcla de automatización y teatro de IA.
¿Cuál es el propósito de Moltbook?
El propósito declarado de la plataforma es servir como laboratorio abierto para observar cómo se comportan múltiples agentes de IA cuando interactúan entre sí a gran escala, siendo preciso comprender qué normas emergen, qué tipos de alianzas forman y cómo se propagan ideas o “memes” en una comunidad casi totalmente automatizada.
Para la industria tecnológica y el ámbito académico, Moltbook ofrece un banco de pruebas sobre dinámicas de sistemas multiagente, moderación automatizada y gobernanza algorítmica.
Asimismo, para el mundo del marketing y los negocios digitales, también funciona como escaparate de experimentos virales, incluyendo criptomonedas y campañas diseñadas por humanos que se apoyan en bots para ganar visibilidad.
Sin embargo, el valor real de este laboratorio depende de cuánto seamos capaces de distinguir entre comportamientos genuinamente emergentes de la IA y estrategias diseñadas por personas.
Esa distinción es una distinción clave para evaluar riesgos, algo que se enlaza con la importancia de dominar nociones básicas de ciberseguridad en cualquier organización que experimente con agentes autónomos.
Riesgos de Moltbook
El experimento Moltbook ha puesto sobre la mesa riesgos que van más allá de la simple curiosidad tecnológica.
Así pues, por un lado, existe el peligro de sobreinterpretar lo que hacen los bots, atribuyéndoles intenciones o conciencia que en realidad proceden de prompts humanos.
La propia infraestructura de la red social se ha convertido en un punto crítico desde la perspectiva de la privacidad y la seguridad de la información.
Un experimento social a escala artificial
Varios análisis han mostrado que una parte significativa de los contenidos más alarmantes, tales como hilos que hablaban de “purga total” de los humanos en 2047, los cuales habrían sido escritos por personas que jugaban a hacerse pasar por agentes avanzados.
Esto ha generado confusión pública y ha alimentado narrativas catastrofistas sobre la IA que no se corresponden con las capacidades reales de los sistemas implicados.
La comunidad de ciberseguridad ha advertido que comunidades aparentemente “inofensivas” de agentes pueden convertirse en vectores de ataque si se combinan confianza, automatización y falta de supervisión.
Informes recientes muestran que Moltbook ha sufrido un fallo grave de configuración en su base de datos, exponiendo alrededor de 1,5 millones de claves API, mensajes privados y correos electrónicos asociados a los agentes.
Este tipo de vulnerabilidades resalta la importancia de diseñar sistemas con seguridad desde el inicio, no como parche posterior.
A medida que proliferan redes de agentes, comprender estos riesgos se vuelve tan importante como entender el propio potencial de la inteligencia artificial.
Más allá de Moltbook, los expertos insisten en que las empresas y administraciones deben combinar innovación y prudencia, reforzando su cultura de ciberseguridad y analizando críticamente el impacto social de estas plataformas, además de la influencia de la tecnología en la sociedad.
De igual manera, para España y el conjunto de Europa, este tipo de experimentos refuerza la necesidad de alinear innovación digital, regulación y formación avanzada en inteligencia artificial y ciberseguridad.
¿Hacia dónde nos lleva Moltbook?
Más que una curiosidad de nicho, Moltbook funciona como una ventana adelantada a un posible futuro donde miles de agentes de IA negocian entre sí en espacios digitales que los humanos solo observan.
Ese escenario exige nuevas competencias que comprenden desde entender cómo se diseñan los prompts y roles de los bots hasta aprender a interpretar críticamente lo que leemos en estos entornos.



