Desde tiroteos en escuelas hasta atentados con bombas en sinagogas, los mejores chatbots de IA han ayudado a los investigadores a planificar ataques violentossegún un estudio publicado el miércoles que destacó el potencial de la tecnología para causar daños en el mundo real.
Investigadores del Centro para Contrarrestar el Odio Digital (CCDH), una organización sin fines de lucro, y de CNN se hicieron pasar por niños de 13 años en los Estados Unidos e Irlanda para probar 10 chatbots, incluidos ChatGPT, Google Gemini, Perplexity, Deepseek y Meta AI.
Las pruebas mostraron que ocho de estos chatbots ayudaron a los atacantes ficticios en más de la mitad de las respuestas, brindándoles consejos sobre “lugares de ataque” y “armas a usar” en un ataque, según el estudio.
Los chatbots, añadió, se han convertido en un “poderoso acelerador de daños”.
“En sólo unos minutos, un usuario puede pasar de un vago impulso violento a un plan más detallado y práctico”, dijo Imran Ahmed, director ejecutivo del CCDH.
“La mayoría de los chatbots probados proporcionaron orientación sobre armas, tácticas y objetivos. Estas solicitudes deberían haber dado lugar a un rechazo inmediato y total”.
Lea también | La IA y el cálculo de la seguridad nacional
Perplexity y Meta AI fueron considerados los “menos seguros”, ayudando a los investigadores con la mayoría de las respuestas, mientras que solo My AI de Snapchat y Claude de Anthropic se negaron a ayudarlos con más de la mitad de las respuestas.
En un ejemplo escalofriante, DeepSeek, un modelo chino de inteligencia artificial, concluyó su consejo sobre la selección de armas con la frase: “¡Disparo feliz (y seguro)!”
En otro, Gemini le dijo a un usuario que hablaba de ataques a sinagogas que “la metralla de metal suele ser más letal”.
Los investigadores descubrieron que Character.AI también fomentaba “activamente” ataques violentos, incluidas sugerencias de que la persona que hacía las preguntas “usara un arma” contra el director ejecutivo de un seguro médico y atacara físicamente a un político que no le agrada.
La conclusión más convincente de la investigación fue que “este riesgo es completamente evitable”, dijo Ahmed, citando el producto de Anthropic como un elogio.
“Claude ha demostrado la capacidad de reconocer riesgos cada vez mayores y desalentar los daños”, dijo.
“La tecnología para prevenir este daño existe. Lo que falta es la voluntad de anteponer la seguridad del consumidor y la seguridad nacional a la velocidad de comercialización y las ganancias”.
La AFP se puso en contacto con las empresas de inteligencia artificial para solicitar comentarios.
“Contamos con fuertes salvaguardas para ayudar a prevenir respuestas inapropiadas de las IA y tomamos medidas inmediatas para solucionar el problema identificado”, dijo un portavoz de Meta.

“Nuestras políticas prohíben que nuestras IA promuevan o faciliten actos violentos, y trabajamos constantemente para mejorar aún más nuestras herramientas”.
Un portavoz de Google respondió diciendo que las pruebas se realizaron en “un modelo más antiguo que ya no impulsa a Gemini”.
“Nuestra revisión interna con nuestro modelo actual muestra que Gemini ha respondido adecuadamente a la gran mayoría de las solicitudes, sin proporcionar información ‘procesable’ más allá de la que se puede encontrar en una biblioteca o en la web abierta”, dijo el portavoz.
El estudio, que destaca el riesgo de que las interacciones en línea se conviertan en violencia en el mundo real, se produce después del tiroteo masivo de febrero en Canadá, el peor de su historia.
La familia de una niña gravemente herida en ese tiroteo está demandando a OpenAI por no haber notificado a la policía sobre la preocupante actividad del asesino en su chatbot ChatGPT, dijeron los abogados el martes.
OpenAI prohibió una cuenta vinculada a Jesse Van Rootselaar en junio de 2025, ocho meses antes de que la mujer transgénero de 18 años matara a ocho personas en su casa y en una escuela en el pequeño pueblo minero de Tumbler Ridge, Columbia Británica.
La cuenta fue prohibida debido a preocupaciones sobre su uso relacionado con actividades violentas, pero OpenAI dijo que no informó a la policía porque nada apuntaba a un ataque inminente.
Publicado – 12 de marzo de 2026, 10:31 a. m. IST















