El mes pasado, Jason Grad emitió una advertencia nocturna a los 20 empleados de su startup tecnológica. “Probablemente hayas visto a Clawdbot como tendencia en X/LinkedIn. Si bien es legal, actualmente no está evaluado y representa un alto riesgo para nuestro medio ambiente”, escribió en un mensaje suelto con un emoji de sirena roja. “Mantenga a Clawdbot alejado de todo el hardware de la empresa y de las cuentas vinculadas al trabajo”.
Grad no es el único ejecutivo de tecnología que ha expresado su preocupación al personal sobre la herramienta experimental de IA, que se conoció brevemente como MoltBot y ahora se llama OpenClaw. Un ejecutivo de Meta dice que recientemente le dijo a su equipo que mantuviera OpenClaw alejado de sus computadoras portátiles de trabajo habituales o se arriesgaría a perder su trabajo. El ejecutivo dijo a los periodistas que cree que el software es imprevisible y podría conducir a una violación de la privacidad si se utiliza en entornos seguros. Habló bajo condición de anonimato para hablar con franqueza.
Peter Steinberger, fundador en solitario de OpenClaw, lo lanzó como una herramienta gratuita y de código abierto noviembre pasado. Pero su popularidad ha aumentado en el último mes mientras otros programadores aportaban recursos y comenzaban a compartir sus experiencias de uso en las redes sociales. La semana pasada, Steinberger unido OpenAI, desarrollador de ChatGPT, que dice que mantendrá OpenClaw de código abierto y lo respaldará a través de una fundación.
OpenClaw requiere conocimientos básicos de ingeniería de software para su configuración. Después de eso, sólo necesita una guía limitada para tomar el control de la computadora de un usuario e interactuar con otras aplicaciones para ayudar con tareas como organizar archivos, realizar búsquedas en la web y comprar en línea.
Algunos profesionales de la ciberseguridad tienen en público instado Las empresas toman medidas para controlar estrictamente cómo su personal utiliza OpenClaw. Y las recientes prohibiciones muestran cómo las empresas se están moviendo rápidamente para garantizar que se priorice la seguridad antes que su deseo de experimentar con tecnologías de inteligencia artificial emergentes.
“Nuestra política es ‘mitigar primero, investigar después’ cuando nos encontramos con algo que podría ser perjudicial para nuestra empresa, nuestros usuarios o nuestros clientes”, dice Grad, cofundador y director ejecutivo de Massive, que proporciona herramientas de proxy de Internet a millones de usuarios y empresas. Su aviso a los empleados se realizó el 26 de enero, antes de que ninguno de sus empleados instalara OpenClaw, dice.
En otra empresa de tecnología, Valere, que trabaja en software para organizaciones como la Universidad Johns Hopkins, un empleado publicó sobre OpenClaw el 29 de enero en un canal interno de Slack para compartir nuevas tecnologías para probar potencialmente. El presidente de la empresa respondió rápidamente que el uso de OpenClaw era estrictamente prohibidoGuy Pistone, director ejecutivo de Valere, dijo a WIRED.
“Si obtuviera acceso a una de las máquinas de nuestros desarrolladores, podría obtener acceso a nuestros servicios en la nube y a la información confidencial de nuestros clientes, incluida la información de tarjetas de crédito y las bases de código de GitHub”, dice Pistone. “Es realmente bueno para limpiar algunas de sus acciones, lo que también me asusta”.
Una semana después, Pistone permitió que el equipo de investigación de Valere ejecutara OpenClaw en la vieja computadora de un empleado. El objetivo era identificar fallas en el software y posibles soluciones para hacerlo más seguro. Posteriormente, el equipo de investigación aconsejó limitar quién puede dar órdenes a OpenClaw y exponerlo a Internet únicamente con una contraseña configurada en su panel de control para evitar accesos no deseados.
En un informe compartido con WIRED, los investigadores de Valere agregaron que los usuarios deben “aceptar que se puede engañar al robot”. Por ejemplo, si OpenClaw está configurado para digerir el correo electrónico de un usuario, un pirata informático podría enviar un correo electrónico malicioso a la persona indicando a la IA que comparta copias de los archivos en la computadora de la persona.
Pero Pistone confía en que se pueden implementar medidas de seguridad para hacer que OpenClaw sea más seguro. Le dio al equipo de Valere 60 días para investigar. “Si sentimos que no podemos hacer esto en un tiempo razonable, dimitiremos”, afirma. “Quien descubra cómo hacerlo seguro para las empresas, sin duda tendrá un ganador”.















