Los piratas informáticos y otros delincuentes pueden apoderarse fácilmente de computadoras que operan grandes modelos de lenguaje de código abierto fuera de las barreras y restricciones de las principales plataformas de inteligencia artificial, creando riesgos y vulnerabilidades de seguridad, dijeron investigadores el jueves.

Los piratas informáticos podrían atacar las computadoras que ejecutan LLM y dirigirlas para que lleven a cabo operaciones de spam, creación de contenido de phishing o campañas de desinformación, evitando los protocolos de seguridad de la plataforma, dijeron los investigadores.

La investigación, realizada conjuntamente por las empresas de ciberseguridad SentinelOne y Censys durante 293 días y compartida exclusivamente con Reuters, ofrece una nueva ventana a la escala de casos de uso potencialmente ilícitos para miles de implementaciones de LLM de código abierto. Estos incluyen piratería informática, discursos de odio y acoso, contenido violento o sangriento, robo de datos personales, estafas o fraudes y, en algunos casos, material de abuso sexual infantil, dijeron los investigadores.

Si bien existen miles de variantes de LLM de código abierto, una parte significativa de los LLM en hosts accesibles a Internet son variantes de Meta’s Llama, Google DeepMind’s Gemma y otros, según los investigadores. Aunque algunos de los modelos de código abierto incluyen protecciones, los investigadores han identificado cientos de casos en los que las protecciones se eliminaron explícitamente.

Las conversaciones de la industria de la inteligencia artificial sobre los controles de seguridad están “ignorando este tipo de exceso de capacidad, que claramente se está utilizando para todo tipo de cosas diferentes, algunas de ellas legítimas, otras obviamente criminales”, dijo Juan Andrés Guerrero-Saade, director ejecutivo de inteligencia e investigación de seguridad de SentinelOne. Guerrero-Saade comparó la situación con un “iceberg” que no está siendo tenido en cuenta adecuadamente en la industria y la comunidad de código abierto.

La investigación analizó implementaciones de acceso público de LLM de código abierto implementadas a través de Ollama, una herramienta que permite a personas y organizaciones ejecutar sus propias versiones de múltiples modelos de lenguaje grandes.

Los investigadores pudieron ver las indicaciones del sistema, que son las instrucciones que determinan cómo se comporta el modelo, en aproximadamente una cuarta parte de los LLM que observaron. De estos, determinaron que el 7,5% podría potencialmente permitir actividades nocivas.

Aproximadamente el 30% de los hosts observados por los investigadores operan fuera de China.y alrededor del 20% en EE.UU.

Rachel Adams, directora ejecutiva y fundadora del Global AI Governance Center, dijo en un correo electrónico que una vez que se lanzan los modelos abiertos, la responsabilidad de lo que sucederá a continuación se comparte en todo el ecosistema, incluidos los laboratorios de origen.

“Los laboratorios no son responsables de todos los usos indebidos posteriores (que son difíciles de predecir), pero mantienen un importante deber de diligencia para anticipar daños previsibles, documentar los riesgos y proporcionar herramientas y orientación de mitigación, especialmente dada la capacidad de aplicación global desigual”, dijo Adams.

Un portavoz de Meta se negó a responder preguntas sobre las responsabilidades de los desarrolladores para abordar las inquietudes sobre el abuso posterior de los modelos de código abierto y cómo se pueden informar las inquietudes, pero destacó las herramientas de protección Llama de la compañía para los desarrolladores de Llama y la Guía de uso responsable de Meta Llama de la compañía.

El líder del equipo rojo de IA de Microsoft, Ram Shankar Siva Kumar, dijo en un correo electrónico que Microsoft cree que los modelos de código abierto “desempeñan un papel importante” en una variedad de áreas, pero, “al mismo tiempo, tenemos claro que los adversarios pueden hacer un mal uso de los modelos abiertos, como todas las tecnologías transformadoras, si se publican sin las salvaguardias adecuadas”.

Microsoft lleva a cabo evaluaciones previas al lanzamiento, incluidos procesos para evaluar “los riesgos de escenarios de llamadas de herramientas, autohospedados y expuestos a Internet donde el uso indebido puede ser alto”, dijo. La empresa también monitorea las amenazas emergentes y los patrones de uso indebido. “En última instancia, la innovación abierta responsable requiere un compromiso compartido entre creadores, implementadores, investigadores y equipos de seguridad”.

Ollama no respondió a una solicitud de comentarios. Google de Alphabet y Anthropic no respondieron a las preguntas.

Publicado – 31 de enero de 2026, 10:44 a. m. IST

Fuente