metauso de inteligencia artificial El software para moderar sus plataformas de redes sociales está generando grandes volúmenes de informes inútiles sobre casos de abuso sexual infantil, lo que está agotando recursos y obstaculizando las investigaciones, dijeron funcionarios del grupo de trabajo estadounidense sobre crímenes en Internet contra niños (ICAC).
“Recibimos muchos consejos de Meta que son simplemente basura”, dijo la semana pasada Benjamin Zwiebel, agente especial del grupo de trabajo ICAC Nuevo México, durante su testimonio en el Sentencia del Estado contra Meta. El fiscal general del estado afirma que las plataformas de la empresa están poniendo sus beneficios a expensas de la seguridad infantil. Meta cuestiona estas afirmaciones, citando cambios que ha introducido en sus plataformas, como que las cuentas de adolescentes tengan protecciones estándar. El grupo de trabajo ICAC es una red nacional de agencias policiales, coordinada con el Departamento de Justicia de EE. UU., para investigar y procesar casos de explotación y abuso infantil en línea.
Otro funcionario del ICAC, que habló bajo condición de anonimato para discutir asuntos internos, dijo: “Meta proporciona miles de consejos cada mes. Es bastante impresionante porque recibimos muchos informes, pero la calidad de los informes es realmente deficiente en términos de nuestra capacidad para tomar medidas serias”. El funcionario del ICAC agregó que el número total de denuncias cibernéticas que recibió su departamento se duplicó de 2024 a 2025.
Los consejos inviables de Instagram, Facebook y WhatsApp contienen en algunos casos información que no es delictiva, dijeron Zweibel y dos funcionarios del ICAC. A veces, las pistas contienen información que indica que pudo haber ocurrido un delito, pero faltan o están editados imágenes, videos o textos vitales, agregaron los oficiales anónimos.
“[Unviable tips from] Instagram realmente ha despegado recientemente, especialmente en los últimos meses, y este es uno de los lugares más importantes donde vemos que no se proporciona esta información”, añadió el funcionario del ICAC. “En estos casos, no tenemos la información para investigar más a fondo. Es triste saber que ocurrió este crimen, pero no pudimos identificar al autor”.
Cuando se le preguntó sobre el testimonio de Zweibel y los comentarios de los funcionarios del ICAC, un portavoz de Meta dijo: “Hemos apoyado a las fuerzas del orden para procesar a los criminales durante años: el Departamento de Justicia ha elogiado repetidamente nuestra rápida cooperación que ha ayudado a conducir a arrestos, y el NCMEC ha elogiado nuestra racionalización y ‘mejora'[d]’proceso de informe de propinas. En 2024, recibimos más de 9000 solicitudes de emergencia de las autoridades estadounidenses y las resolvimos en un promedio de 67 minutos, e incluso más rápido en casos relacionados con la seguridad infantil y el suicidio. De conformidad con la ley aplicable, también reportamos imágenes aparentes de explotación sexual infantil al NCMEC y los apoyamos para que prioricen la presentación de informes, desde ayudarlos a desarrollar su herramienta de gestión de casos hasta etiquetar los consejos cibernéticos para que sepan cuáles son urgentes”.
La compañía destacó que el agente Zweibel recomendó usar la función de cuentas para adolescentes de Meta durante su testimonio, lo cual dijo que hizo “porque es la única opción disponible, asumiendo que los adolescentes no se abstendrán de usar las redes sociales”.
Raúl Torrez, el Nuevo Méjico El fiscal general que lidera el caso contra Meta reconoció la cooperación de la compañía al proporcionar pistas sobre el abuso infantil en el juicio: “Quiero dar crédito a algunas de las aplicaciones y plataformas de redes sociales, incluida Meta, que hasta cierto punto reportan imágenes al Centro Nacional para Niños Desaparecidos y Explotados”.
Los archivos publicados en el caso el viernes muestran a los ejecutivos de Meta haciendo sonar alarmas internas sobre la capacidad de la compañía para controlar el abuso sexual infantil y alertar a las autoridades a principios de 2019. En ese momento, la compañía se estaba preparando para habilitar el cifrado de extremo a extremo en Facebook Messenger, que oculta los mensajes de los usuarios a cualquier persona que no sea el destinatario previsto mediante el cifrado.
Los archivos plantean nuevas preguntas
“Estamos a punto de hacer algo malo como empresa. Esto es muy irresponsable”, escribió Monika Bickert, directora de política de contenidos de Meta.
Bickert escribió que “no habría manera de descubrir la planificación de un ataque terrorista o la explotación infantil” si el contenido de Messenger estuviera encriptado, lo que podría dificultar el trabajo con las autoridades encargadas de hacer cumplir la ley. Bickert también dijo que Meta estaba haciendo “declaraciones groseras sobre nuestra capacidad para realizar operaciones de seguridad”, según documentos internos.
En otro documento, los funcionarios de Meta estimaron que el cifrado de Messenger habría hecho que la compañía “no pudiera proporcionar datos de manera proactiva a las autoridades en 600 casos de explotación infantil, 1.454 casos de sextorsión, 152 casos de terrorismo, 9 amenazas de tiroteos en escuelas”.
Andy Stone, portavoz de Meta, dijo a Reuters: “Las preocupaciones planteadas en 2019 son la razón por la que hemos desarrollado una serie de nuevas funciones de seguridad para ayudar a detectar y prevenir abusos, todas diseñadas para funcionar en chats cifrados”.
Los grupos de seguridad infantil han criticado el cifrado de Messenger, que se lanzó en 2023.
Denunciar abuso infantil masivo
Por ley, las empresas de redes sociales con sede en los Estados Unidos están obligado a informar cualquier material de abuso sexual infantil (CSAM) detectado en sus plataformas al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC). El NCMEC actúa como cámara de compensación nacional para informes, que envía a las agencias policiales apropiadas en los Estados Unidos e internacionalmente. El NCMEC no tiene la autoridad para examinar ninguna pista que pueda ser inviable antes de enviarla a las agencias policiales pertinentes.
Meta es, con diferencia, el mejor reportero del NCMEC. En su informe de datos de 2024, el NCMEC dijo que Meta realizó 13,8 millones de informes en Facebook, Instagram y Whatsapp, de un total de 20,5 millones de sugerencias que recibió.
El NCMEC dijo que para 2024, más de 1 millón de informes CyberTipline estaban vinculados a un estado específico de EE. UU., y estos informes se pusieron a disposición de los grupos de trabajo del ICAC en todo el país, así como de otras agencias policiales federales, estatales y locales, para su investigación.
Meta y otras empresas de redes sociales utilizan inteligencia artificial para detectar e informar material sospechoso en sus sitios y emplean moderadores humanos para revisar parte del contenido marcado antes de enviarlo a las autoridades. El Guardián ya había informó que los consejos generados por IA que tampoco han sido revisados por un empleado de una empresa de redes sociales a menudo no pueden ser abiertos por un oficial de policía sin una orden judicial debido a las protecciones de la Cuarta Enmienda. Esta medida adicional también ralentiza las investigaciones de posibles delitos, afirman los abogados implicados en estos casos.
Un portavoz de Meta dijo: “Es lamentable que los fallos judiciales hayan aumentado la carga sobre las fuerzas del orden al exigir órdenes de registro para abrir copias idénticas de contenido que ya hemos analizado y sobre el que hemos informado. Nuestro sistema de comparación de imágenes encuentra copias de explotación infantil conocida en una escala que sería imposible hacerlo manualmente, y trabajamos para detectar nuevos contenidos de explotación infantil a través de tecnología, informes de nuestra comunidad e investigaciones de nuestros equipos especializados en seguridad infantil”.
El cambio legislativo estimula una avalancha de propinas
Según la Ley de presentación de informes (revisión de los procedimientos existentes sobre la presentación de informes a través de tecnología), que entró en vigor en noviembre de 2024, los proveedores de servicios en línea deben ampliar y fortalecer sus obligaciones de presentación de informes notificando a CyberTipline del NCMEC no solo sobre material de abuso sexual infantil, sino también sobre abuso planificado o inminente, tráfico sexual infantil y explotación relacionada; también deben preservar las pruebas durante un período más largo y enfrentar penas más severas si no cumplen con conocimiento de causa.
Desde que se aprobó la ley, el número de pistas inviables proporcionadas por Meta ha aumentado drásticamente, lo que puede deberse a que la empresa está tomando medidas para garantizar que no infringe la ley, dijeron dos funcionarios del ICAC. Muchos de estos consejos no podrían interpretarse como un delito, como es el caso de los adolescentes que hablan de qué celebridad consideran más atractiva.
“Según mi entrenamiento y experiencia, parece que están siendo sometidos a través del uso de IA, ya que son errores comunes que una IA cometería y que un observador humano no cometería”, dijo Zwiebel en el tribunal.
Por el contrario, el departamento de Zwiebel recibe muchos menos informes sobre casos legítimos de distribución de material de abuso sexual infantil (CSAM) de Meta que en años anteriores, dijo.
Cada informe que llega a una división del ICAC debe ser revisado, y la afluencia de informes inviables está quitando tiempo y recursos a la investigación de casos legítimos de abuso infantil, dijeron dos agentes.
“Esto está matando la moral. Nos estamos ahogando en quejas y queremos salir y hacer este trabajo”, dijo un funcionario del ICAC. “No tenemos el personal para soportar eso. No hay manera de que podamos seguir el ritmo de la inundación que se avecina”.













