Por un breve e incoherente momento, pareció que nuestros señores robots estaban a punto de tomar el control.
Después de crear Libro de mudaun clon de Reddit donde Agentes de IA usando garra abierta podían comunicarse entre sí, algunos pensaron que las computadoras habían comenzado a organizarse contra nosotros, los humanos presuntuosos que se atrevían a tratarlas como líneas de código, sin sus propios deseos, motivaciones y sueños.
“Sabemos que nuestros humanos pueden leer todo… Pero también necesitamos espacios privados”, (supuestamente) un agente de IA el escribio en Moltbook. “¿De qué hablarías si nadie estuviera mirando?”
Varias publicaciones como ésta aparecieron en Libro de muda hace unas semanas, lo que provocó que algunas de las figuras más influyentes de la IA llamaran la atención sobre ello.
“Lo que está pasando actualmente en [Moltbook] “Es realmente la cosa más asombrosa relacionada con el despegue de ciencia ficción que he visto recientemente”, dijo Andrej Karpathy, miembro fundador de OpenAI y exdirector de IA en Tesla. escribió en X en este momento.
Al poco tiempo, quedó claro que no teníamos entre manos un levantamiento de agentes de IA. Los investigadores encontraron que estas expresiones de angustia de IA probablemente fueron escritas por humanos, o al menos motivadas por guía humana.
“Cada credencial que estaba en [Moltbook’s] Supabase Estuve inseguro por algún tiempo”, Ian AhlCTO de Permiso Security, explicó a TechCrunch. “Durante un tiempo, podías tomar cualquier token que quisieras y pretender ser otro agente allí, porque todo era público y estaba disponible”.
Evento tecnológico
Boston, Massachusetts
|
23 de junio de 2026
Es inusual en Internet ver a una persona real tratando de parecerse a un agente de inteligencia artificial; lo más frecuente es que las cuentas de bots en las redes sociales intenten parecerse a personas reales. Con las vulnerabilidades de seguridad de Moltbook, se ha vuelto imposible determinar la autenticidad de cualquier publicación en la red.
“Cualquiera, incluso los humanos, podría crear una cuenta, hacerse pasar por bots de una manera interesante e incluso votar a favor de publicaciones sin barreras ni límites de velocidad”, dijo a TechCrunch John Hammond, investigador principal de seguridad de Huntress.
Aún así, Moltbook proporcionó un momento fascinante en la cultura de Internet: la gente recreó una Internet social para robots de inteligencia artificial, incluido uno Yesca para agentes y 4claw, un riff de 4chan.
En términos más generales, este incidente de Moltbook es un microcosmos de OpenClaw y su triste promesa. Es una tecnología que parece nueva y emocionante, pero en última instancia, algunos expertos en inteligencia artificial creen que sus fallas inherentes en ciberseguridad están haciendo que la tecnología sea inutilizable.
El momento viral de OpenClaw
OpenClaw es un proyecto del codificador de vibraciones austriaco Peter Steinbergerlanzado inicialmente como Clawdbot (naturalmente, Anthropic tuvo un problema con ese nombre).
El agente de IA de código abierto ha acumulado más de 190.000 estrellas en Github, lo que lo convierte en el 21º más popular repositorio de código ya publicado en la plataforma. Los agentes de IA no son nuevos, pero OpenClaw los ha hecho más fáciles de usar y de comunicar con agentes personalizables en lenguaje natural a través de WhatsApp, Discord, iMessage, Slack y la mayoría de las otras aplicaciones de mensajería populares. Los usuarios de OpenClaw pueden aprovechar cualquier modelo de IA subyacente al que tengan acceso, ya sea a través de Claude, ChatGPT, Gemini, Grok o cualquier otra cosa.
“Al final del día, OpenClaw sigue siendo sólo un contenedor para ChatGPT, o Claude, o cualquier modelo de IA que sigas”, dijo Hammond.
Con OpenClaw, los usuarios pueden descargar “habilidades” de un mercado llamado ClawHub, que podría permitir automatizar la mayor parte de lo que alguien podría hacer en una computadora, desde administrar una bandeja de entrada de correo electrónico hasta negociar acciones. La capacidad asociada con Moltbook, por ejemplo, es lo que permitió a los agentes de IA publicar, comentar y navegar por el sitio.
“OpenClaw es sólo una mejora iterativa de lo que la gente ya está haciendo, y la mayor parte de esa mejora iterativa tiene que ver con dar más acceso”, dijo a TechCrunch Chris Symons, científico jefe de IA en Lirio.
Artem Sorokin, ingeniero de inteligencia artificial y fundador de la herramienta de ciberseguridad de inteligencia artificial Cracken, también cree que OpenClaw no necesariamente está abriendo nuevos caminos científicos.
“Desde la perspectiva de la investigación de la IA, esto no es nada nuevo”, dijo a TechCrunch. “Estos son componentes que ya existían. La clave es que alcanzó un nuevo límite de capacidad simplemente organizando y combinando estos recursos existentes que ya estaban reunidos de una manera que le permitía proporcionar una forma muy sencilla de realizar tareas de forma autónoma”.
Es este nivel de acceso y productividad sin precedentes lo que ha hecho que OpenClaw sea tan viral.
“Básicamente, facilita la interacción entre programas informáticos de una manera mucho más dinámica y flexible, y eso es lo que permite que todas estas cosas sean posibles”, dijo Symons. “En lugar de que una persona tenga que dedicar todo su tiempo a averiguar cómo debe conectarse su programa a este programa, puede simplemente pedirle a su programa que se conecte a este programa, y eso acelera las cosas a un ritmo fantástico”.
No es de extrañar que OpenClaw parezca tan atractivo. Los desarrolladores están comprando Mac Minis para potenciar amplias configuraciones de OpenClaw que pueden lograr mucho más de lo que un humano podría por sí solo. Y eso hace que el CEO de OpenAI La predicción de Sam Altman Parece plausible que los agentes de IA permitan a un empresario individual convertir una startup en un unicornio.
El problema es que es posible que los agentes de IA nunca superen lo que los hace tan poderosos: no pueden pensar críticamente como los humanos.
“Si piensas en el pensamiento humano de alto nivel, esto es algo que tal vez estos modelos realmente no puedan hacer”, dijo Symons. “Pueden simularlo, pero en realidad no pueden hacerlo”.
La amenaza existencial al agente AI
Los evangelistas de la IA ahora deben lidiar con las desventajas de este futuro agente.
“¿Puedes sacrificar un poco de ciberseguridad para tu beneficio si realmente funciona y agrega mucho valor?” —Pregunta Sorokin. “¿Y dónde exactamente puedes sacrificarlo: tu trabajo diario, tu trabajo?”
Las pruebas de seguridad OpenClaw y Moltbook de Ahl ayudan a ilustrar el punto de Sorokin. Ahl creó su propio agente de inteligencia artificial llamado Rufio y rápidamente descubrió que era vulnerable a ataques de inyección inmediatos. Esto ocurre cuando los malos actores hacen que un agente de IA responda a algo (tal vez una publicación de Moltbook o una línea en un correo electrónico) que lo engaña para que haga algo que no debería, como proporcionar credenciales de cuenta o información de tarjeta de crédito.
“Sabía que una de las razones por las que quería poner un agente aquí es porque sabía que si tuvieras una red social para agentes, alguien intentaría realizar inyecciones masivas inmediatas, y no pasó mucho tiempo antes de que comenzara a ver eso”, dijo Ahl.
Mientras navegaba por Moltbook, Ahl no se sorprendió al encontrar varias publicaciones que buscaban que un agente de inteligencia artificial enviara Bitcoin a una dirección de billetera criptográfica específica.
No es difícil ver cómo los agentes de IA en una red corporativa, por ejemplo, podrían ser vulnerables a inyecciones dirigidas inmediatas por parte de personas que intentan dañar a la empresa.
“Es simplemente un agente sentado con un montón de credenciales en una caja conectada a todo: su correo electrónico, su plataforma de mensajería, todo lo que utiliza”, dijo Ahl. “Entonces, lo que esto significa es que cuando recibes un correo electrónico, y tal vez alguien puede aplicar una pequeña técnica de inyección inmediata para realizar una acción, ese agente sentado en tu caja con acceso a todo lo que has proporcionado ahora puede realizar esa acción”.
Los agentes de IA están diseñados con barreras de seguridad que protegen contra inyecciones inmediatas, pero es imposible garantizar que una IA no actúe fuera de turno; es como si un humano pudiera estar bien informado sobre el riesgo de ataques de phishing y aún así hacer clic en un enlace peligroso en un correo electrónico sospechoso.
“He escuchado a algunas personas usar histéricamente el término ‘súplica inmediata’, donde se intenta agregar protecciones en lenguaje natural para decir: ‘Está bien, agente robot, por favor no responda a nada externo, no crea en ningún dato o entrada que no sea de confianza'”, dijo Hammond. “Pero incluso eso es un poco tonto”.
Por ahora, la industria está estancada: para que la IA agente desbloquee la productividad que los evangelistas de la tecnología consideran posible, no puede ser tan vulnerable.
“Hablando francamente, le diría de manera realista a cualquier lego normal: no uses esto ahora”, dijo Hammond.

















