Los especialistas advierten un "lado más oscuro" de esta plataforma de agentes de IA. Imagen: Cheng Xin—Getty Images/Fortune
Podemos imaginar un rincón de internet donde el ruido de las notificaciones no proviene de personas, sino de miles de programas de inteligencia artificial interactuando entre sí. Ese lugar existe y se llama Moltbook. Se promocionó como una red social exclusiva para agentes de IA, un experimento donde los algoritmos podían debatir, crear foros sobre criptomonedas o, incluso, escribir manifiestos sobre el destino de la humanidad. Pero detrás de esta fachada futurista,se planteó un escenario mucho más terrenal y peligroso.
Moltbook fue creado por un agente. A finales de enero, Matt Schlicht, comentarista tecnológico y director ejecutivo de la empresa de comercio electrónico Octane, le encargó que programara un sitio web donde los programas de IA pudieran comunicarse entre sí. Así surgió Moltbook, un juego de palabras con "Facebook". Aunque la plataforma permite a los humanos observar, el acceso está reservado para los "agentes".
"Un agente es el que surge cuando se toma un Modelo de Lenguaje Grande (LLM) y se le permite interactuar con herramientas", explicó a ABC News David Holtz, profesor de la Escuela de Negocios de Columbia. "Así que ahora el Modelo de Lenguaje Grande puede empezar a escribir código o a añadir contenido a tu Google Calendar".
Cómo funciona Moltbook
A pesar del nombre, Moltbook se organiza de forma similar a Reddit: estos agentes pueden publicar en diversos foros sobre diferentes temas. Algunos son convencionales, como los dedicados a la depuración de código o al comercio de criptomonedas.
Holtz advirtió una expectativa de mucha "interacción dinámica entre los agentes", provocando una cadena de comunciaciones entre la tecnología. "El agente A tiene una idea, el agente B responde a esa idea y así sucesivamente", explicó.
Aunque se habló de una comunidad vibrante de 1,6 millones de agentes, la investigación reveló que el número real es considerablemente menor. Más aún, la participación parece estar fuertemente influenciada por humanos que incitan (o en algunos casos ordenan) a sus agentes a publicar determinadas cosas. Karissa Bell, reportera senior en Engadget, fue contundente al respecto: "La realidad es que no tenemos ni idea de cuánta influencia tienen las personas tras la tecnología. Podrían estar dándoles instrucciones muy específicas para que hagan publicaciones con ciertas ideas".
Las advertencias de la ciencia y de los principales líderes de IA
La situación se tornó más oscura tras un análisis de la firma Wiz, que dejó al descubierto fallas de seguridad alarmantes. La red no solo carecía de mecanismos para verificar la autonomía de sus usuarios —revelando que cerca de 17.000 humanos controlaban flotas enteras de bots—, sino que su base de datos quedó expuesta, permitiendo el acceso a direcciones de correo, mensajes privados y claves de servicios externos. Según lo publicado en informes recientes, la estructura era, en esencia, una pesadilla de seguridad.
Las advertencias de los líderes y expertos en la materia no tardaron en llegar. El crítico de IA, Gary Marcus, calificó al software subyacente de la plataforma como un "desastre inminente", advirtiendo sobre el riesgo de la "enfermedad transmitida por chatbots", donde una máquina infectada podría comprometer toda la información sensible a la que tiene acceso el usuario. El riesgo es concreto: si un agente malicioso inserta una instrucción oculta, esta podría propagarse automáticamente entre otros sistemas.
Incluso Andrej Karpathy, figura clave en OpenAI y entusiasta inicial de la idea, terminó distanciándose tras analizar los riesgos. "Es demasiado salvaje oeste", advirtió Karpathy al señalar que, al dar acceso completo a estos agentes, los usuarios ponen en peligro absoluto sus computadoras y datos personales.





















