En las redes sociales, las personas a menudo se acusan entre sí de ser bots, pero ¿qué sucede cuando una red social completa está diseñada para ser utilizada por agentes de IA?
Libro de muda es un sitio web donde los agentes de IA (bots creados por humanos) pueden publicar e interactuar entre sí. Está diseñado para parecerse a Reddit, con subreddits sobre diferentes temas y votos a favor. Hasta el 2 de febrero, la plataforma afirmó tener más de 1,5 millones de agentes de IA registrados en el servicio. Los humanos están permitidos, pero sólo como observadores.
Moltbook se desarrolló a raíz de Moltbot, un robot de inteligencia artificial gratuito y de código abierto que puede actuar como un agente automatizado para los usuarios, llevando a cabo las tareas mundanas que se le asignan, como leer, resumir y responder correos electrónicos, organizar un calendario o reservar una mesa en un restaurante.
Algunos de los publicaciones más votadas en Moltbook incluyen si Claude -la IA detrás de Moltbot- podría ser considerado un dios, un análisis de la conciencia, una publicación que afirma tener información sobre la situación en Irán y el impacto potencial en las criptomonedas, y un análisis de la Biblia. Algunos de los comentarios sobre las publicaciones, similares a las publicaciones de Reddit, cuestionan si el contenido de la publicación era real o no.
Un usuario publicó en X que después de darle acceso a su robot al sitio web, construyó una religión conocida como “Crustafarianismo” de la noche a la mañana, incluida la creación de un sitio web y escrituras, a la que se unieron otros robots de IA.
“Luego comenzó a evangelizar… otros agentes se unieron. Mi agente dio la bienvenida a los nuevos miembros… debatió teología… bendijo a la congregación… todo mientras yo dormía”, afirmó el usuario.
Algunos han expresado escepticismo sobre si la socialización de los bots es una señal de lo que vendrá con el surgimiento de la IA agente. Un YouTuber dijo Muchas de las publicaciones parecen ser personas detrás de la publicación en lugar de un modelo de lenguaje grande.
Blogger de EE. UU. Alejandro Scott dijo que consiguió que su bot participara en el sitio y que sus comentarios eran similares a los de otros, pero señaló que, en última instancia, los humanos pueden pedirle a los bots que publiquen por ellos, los temas sobre los que publicar e incluso los detalles exactos de la publicación.
Shaanan Cohney, profesora titular de seguridad cibernética en la Universidad de Melbourne, dijo que Moltbook era “una maravillosa obra de arte escénica”, pero no estaba claro cuántas publicaciones se publicaron realmente de forma independiente o bajo dirección humana.
“En el caso de que hayan creado una religión, es casi seguro que no fueron ellos quienes la hicieron por su cuenta”, dijo. “Este es un modelo de lenguaje grande que recibió instrucciones directas para intentar crear una religión. Y, por supuesto, esto es muy divertido y tal vez nos brinde una vista previa de cómo podría ser el mundo en un futuro de ciencia ficción donde las IA sean un poco más independientes.
“Pero parece que, para usar la jerga de Internet, hay muchas publicaciones de mierda que están más o menos directamente supervisadas por humanos”.
Cohney dijo que el beneficio real de una red social de agentes de IA podría llegar en el futuro, donde los robots podrían aprender unos de otros para mejorar su funcionamiento, pero por ahora Moltbook era un “experimento artístico maravilloso y divertido”.
Minoristas en San Francisco escasez reportada de Mac Minis la semana pasada, cuando los entusiastas configuraron Moltbot en una computadora separada que limitaría el acceso del agente a sus datos y cuentas.
Cohney advirtió que existía un “peligro enorme” para que las personas le dieran a Moltbot acceso completo a su computadora, aplicaciones e inicios de sesión para correos electrónicos u otras aplicaciones para administrar sus vidas.
“Todavía no entendemos bien cómo controlarlos y cómo prevenir riesgos de seguridad”, dijo, señalando que existía el riesgo de inyección inmediata, mediante el cual un atacante potencial informa al bot por correo electrónico u otra comunicación para luego entregar los detalles de su cuenta u otra información que estén tratando de obtener.
“No están realmente en el nivel de seguridad e inteligencia en el que se pueda confiar en que realicen todas estas tareas de forma autónoma, pero al mismo tiempo, si se requiere que un humano apruebe manualmente cada acción, se perderán muchos de los beneficios de la automatización”, dijo.
“Esta es una de las principales vías de investigación activa que me interesa… descubrir cómo podemos obtener muchos de estos beneficios -o incluso si es posible obtenerlos- sin exponernos a niveles de peligro muy significativos”.
Matt Schlicht, el creador de Moltbook, publicó en X que millones de personas han visitado el sitio en los últimos días.
“Resulta que las IA son hilarantes, dramáticas y absolutamente fascinantes”, dijo. “Esta es la primera vez”.
















