La cantidad de material de abuso sexual infantil generado por IA que se encuentra en línea aumentó un 14% el año pasado, con el la mayoría de los vídeos mostrando el tipo de contenido más extremo, según un organismo de control de seguridad.
EL Internet La Watch Foundation dijo que identificó 8.029 imágenes y videos tomados por IA de material realista de abuso sexual infantil. (CSAM) en 2025. Agregó que hubo un aumento de más de 260 veces en el número de videos.
La IWF dijo que el 65% de los 3.443 vídeos estaban clasificados en la categoría A, el término para el material más serio según la ley del Reino Unido. La cifra correspondiente a los vídeos sin IA fue del 43%, dijo el organismo de control, lo que demuestra que la tecnología se estaba utilizando para crear contenidos más violentos.
Kerry Smith, director ejecutivo de la IWF, dijo: “Los avances en tecnología nunca deberían producirse a expensas de la seguridad y el bienestar de un niño. Si bien la IA puede ofrecer mucho en un sentido positivo, es horroroso considerar que su poder podría usarse para devastar la vida de un niño. Esto es peligroso”.
Un analista de la IWF dijo que las conversaciones entre pedófilos en la web oscura mostraban que los usuarios de CSAM “miraban con entusiasmo” las innovaciones en tecnología. Las discusiones se centran en los resultados cada vez más realistas de los sistemas de inteligencia artificial y, a medida que mejoran, su capacidad para agregar audio a video o manipular con éxito imágenes de un niño real conocido por un delincuente.
La IWF, con sede en el Reino Unido, opera una línea directa y tiene la misión global de monitorear el contenido de abuso sexual infantil. Afirmó que los delincuentes también estaban discutiendo las posibilidades de utilizar sistemas “agentes”, que pueden realizar tareas de forma autónoma.
Las empresas de tecnología y las agencias de protección infantil están conseguir el poder en el Reino Unido para probar si las herramientas de inteligencia artificial pueden producir CSAMen una medida que los ministros dijeron el año pasado tenía como objetivo detener los abusos antes de que ocurrieran.
Según el cambio, el gobierno dará permiso a las empresas de inteligencia artificial y a las organizaciones de seguridad infantil designadas para examinar los modelos de inteligencia artificial generativa (la tecnología subyacente para chatbots como ChatGPT y generadores de imágenes como Veo 3 de Google) y garantizará que tengan implementadas salvaguardas para evitarlos. creando este material.
“Los niños, las víctimas y los supervivientes no pueden permitir que seamos complacientes”, afirmó Smith. “Las nuevas tecnologías deben cumplir los más altos estándares. En algunos casos, hay vidas en peligro”.
La cantidad de CSAM verificada por la IWF ha aumentado notablemente a medida que aumentaron la competencia y la disponibilidad de los sistemas, especialmente con el aumento de los videos.
La IWF también publicó una investigación que mostraba que ocho de cada 10 adultos del Reino Unido querían que el gobierno del Reino Unido introdujera una legislación que garantizara que los sistemas de IA se desarrollaran teniendo como prioridad la seguridad y “preparados para el futuro contra daños”. El año pasado, el gobierno anunció una prohibición de poseer, crear o distribuir modelos de IA diseñado para generar material de abuso sexual infantil.

















