Las empresas tecnológicas y las agencias de protección infantil tendrán el poder de probar si las herramientas de inteligencia artificial pueden producir Imágenes de abuso infantil bajo una nueva ley del Reino Unido.

El anuncio se hizo cuando un organismo de control de seguridad reveló que los informes de material de abuso sexual infantil generado por IA [CSAM] se han más que duplicado en el último año, de 199 en 2024 a 426 en 2025.

Según el cambio, el gobierno dará permiso a las empresas de inteligencia artificial y a las organizaciones de seguridad infantil designadas para examinar los modelos de inteligencia artificial (la tecnología subyacente para chatbots como ChatGPT y generadores de imágenes como Veo 3 de Google) y garantizar que tengan salvaguardias para evitar que creando imágenes de abuso sexual infantil.

Kanishka Narayan, ministra de IA y seguridad en línea, dijo que la medida tenía como objetivo “en última instancia detener el abuso antes de que suceda”, y agregó: “Los expertos, bajo condiciones estrictas, ahora pueden detectar el riesgo en los modelos de IA de manera temprana”.

Los cambios se introdujeron porque es ilegal crear y poseer CSAM, lo que significa que los desarrolladores de IA y otros no pueden crear tales imágenes como parte de un régimen de prueba. Hasta ahora, las autoridades han tenido que esperar hasta que el CSAM generado por IA se cargue en línea antes de abordarlo. Esta ley tiene como objetivo evitar ese problema ayudando a prevenir la creación de esas imágenes en origen.

Los cambios están siendo introducidos por el gobierno como enmiendas al proyecto de ley sobre delincuencia y vigilancia policial, legislación que también introduce una prohibición de poseer, crear o distribuir modelos de IA diseñado para generar material de abuso sexual infantil.

Esta semana, Narayan visitó la base londinense de Childline, una línea de ayuda para niños, y escuchó una maqueta de una llamada a consejeros que presentaba un informe de abuso basado en IA. La llamada mostraba a un adolescente que buscaba ayuda después había sido chantajeado por un deepfake sexualizado de sí mismo, construido usando IA.

“Cuando escucho que niños son chantajeados en línea, es una fuente de enojo extremo para mí y de enojo legítimo entre los padres”, dijo.

La Internet Watch Foundation, que monitorea el CSAM en línea, dijo que los informes de material de abuso generado por IA, como una página web que puede contener múltiples imágenes, se han más que duplicado en lo que va del año. Los casos de material de categoría A, la forma más grave de abuso, aumentaron de 2.621 imágenes o vídeos a 3.086.

Las niñas fueron el blanco abrumador de las amenazas, y representaron el 94% de las imágenes ilegales de IA en 2025, mientras que las representaciones de recién nacidos hasta niños de dos años aumentaron de cinco en 2024 a 92 en 2025.

Kerry Smith, director ejecutivo de Internet Watch Foundation, dijo que el cambio de ley podría ser “un paso vital para garantizar que los productos de IA sean seguros antes de su lanzamiento”.

“Las herramientas de inteligencia artificial han hecho que los sobrevivientes puedan ser victimizados nuevamente con solo unos pocos clics, brindando a los delincuentes la capacidad de crear cantidades potencialmente ilimitadas de material sofisticado y fotorrealista sobre abuso sexual infantil”, dijo. “Material que mercantiliza aún más el sufrimiento de las víctimas y hace que los niños, especialmente las niñas, estén menos seguros dentro y fuera de línea”.

Childline también publicó detalles de las sesiones de asesoramiento en las que se mencionó la IA. Los daños de la IA mencionados en las conversaciones incluyen: el uso de la IA para calificar el peso, el cuerpo y la apariencia; chatbots que disuaden a los niños de hablar con adultos seguros sobre el abuso; ser intimidado en línea con contenido generado por IA; y chantaje en línea utilizando imágenes falsificadas por IA.

Entre abril y septiembre de este año, Childline impartió 367 sesiones de asesoramiento en las que se mencionaron la IA, los chatbots y términos relacionados, cuatro veces más que en el mismo período del año pasado. La mitad de las menciones a la IA en las sesiones de 2025 estuvieron relacionadas con la salud mental y el bienestar, incluido el uso de chatbots como apoyo y aplicaciones de terapia con IA.

Fuente