El lunes, tres chicas Se presentó una demanda colectiva contra xAI alegando que la herramienta Grok AI de la compañía se utilizó para crear material de abuso sexual infantil a partir de sus imágenes.
Este nuevo caso civil se suma al menos a otros dos casos centrados en deepfakes no consensuales presentados contra xAI, fundada por el multimillonario Elon Musk. Esos casos anteriores se centraron en deepfakes no consensuales publicados en X, la plataforma de redes sociales también propiedad de Musk, mientras que esta nueva denuncia involucra una aplicación de terceros que dependía de Grok AI para generar las imágenes.
Generar imágenes de cachorros Debutó en X en diciembre.y los usuarios inmediatamente encontraron formas de crear imágenes sexualmente explícitas a pesar de la prohibición de la desnudez. Grok generó más de 4,4 millones de imágenes en nueve díasSegún una reseña del New York Times, 1,8 millones de ellos eran representaciones sexuales de mujeres. Investigadores del Centro sin fines de lucro para combatir el odio digital Se estima que Grok realizó 23.000 imágenes sexuales de niños Más de 11 días.
Si bien algunos usuarios crearon imágenes de ellos mismos, muchas de las imágenes eran de personas que no tenían idea de que estaban siendo desnudadas digitalmente en las redes sociales.
Hasta ahora, las tres demandas representan el único camino hacia la justicia para los miles, si no millones, de personas que han sido víctimas de esta manera por Grok. Los fiscales federales aún no han iniciado un caso penal conforme a la ley Tómelo leyque prohíbe la publicación de imágenes íntimas no consentidas. (De hecho, incluso cuando el deepfake de Groke dio lugar a investigaciones internacionales, el Pentágono anunció que fusionaría Grok en enero, después de conseguir un contrato de 200 millones de dólares el año anterior). Los tres casos son demandas civiles que buscan daños y perjuicios.
“No tenemos mecanismos para responsabilizarnos, exigir transparencia, exigir información a estas empresas, y ellas se resisten increíblemente a asumir la responsabilidad cuando sus plataformas causan daño”, dijo Imran Ahmed, fundador y director ejecutivo de la organización sin fines de lucro Center for Countering Digital Hate.
-
Lea a continuación:
“Asegurarse de que su plataforma no sea una máquina a escala industrial para abusar sexualmente de mujeres y niños puede parecer una obviedad para alguien que busca lanzar una plataforma de consumo”, dijo Ahmed.
xAI no respondió a una solicitud de comentarios.
Todos los casos alegan negligencia de XAI al liberar a Grok. En cada caso se alega que xAI no realizó pruebas estándar de la industria ni implementó barreras de seguridad comunes para evitar la creación de imágenes explícitas no consensuadas o material de abuso sexual infantil.
xAI lanzó por primera vez su chatbot Grok en 2023, y Musk lo anunció como un antídoto para otros chatbots, que, según dijo, eran Infectado con el “Virus del Despertar”. Desde el principio, Los desarrolladores dijeron que Grok responderá preguntas “candentes”. Que otras aplicaciones se nieguen a contestar. Esta afirmación ha vuelto a perseguir a la empresa en estos juicios, donde se utiliza para demostrar negligencia.
Grok existe como una aplicación independiente y se puede acceder a ella a través de la plataforma de redes sociales X, anteriormente conocida como Twitter. El 20 de diciembre de 2025, Musk anunció que es posible que se requiera que Grok edite y cree imágenes en X. El abuso de deepfake se ha disparado en la plataforma, y muchos políticos y observadores de la sociedad civil han hecho sonar la alarma. Después de semanas de poca acción, el gigante de las redes sociales dijo que la generación de imágenes se limitaría a cuentas X pagas, esencialmente monetizando deepfakes no consensuales, dijeron los críticos. (así no se detuvo por completo Libere a las cuentas X de la creación de imágenes con Grok).
El 14 de enero Publicar almizcle en X “No tenía conocimiento de ninguna imagen de menores desnudos creada por Grok”, pero dijo que el “pirateo hostil” podría conducir a resultados inesperados que se solucionarían de inmediato. Dos de las tres demandas alegan que Grok creó imágenes de niños sexualmente explícitas, si no completamente desnudas, antes de esa fecha.
-
Lea a continuación:
Dos de los casos actuales se derivan de que el creador de Grok publicó fotos de X. Ashley St. Clair, una influyente política y madre de uno de los 14 hijos de Musk reconocidos públicamente. Presentó una demanda contra XAI el 15 de enero. después de que los usuarios le pidieran a Grok que se tomara fotos sexualmente explícitas de ella misma. St. Clair dice que algunas de las imágenes alteran una foto de ella misma cuando tenía 14 años, creando material de abuso sexual infantil generado por IA.
Jane Doe, demandante en Demanda colectiva presentada el 23 de eneroes una mujer de Carolina del Sur que dice que la cuenta de Grok publicó una foto de ella generada por IA usando un bikini revelador sin su consentimiento. Dijo que ha tenido que tomar licencias no remuneradas del trabajo y vive con el temor de que su imagen resurja y le cueste sus oportunidades profesionales.
A diferencia de los dos casos anteriores, la demanda colectiva presentada el lunes se centra en material de abuso sexual infantil que supuestamente se creó en una aplicación que tenía licencia para dicha aplicación. API de imaginación de Grok. Tres estudiantes de Tennessee, dos de los cuales eran menores de edad y uno cuyo deepfake se obtuvo a partir de fotografías suyas cuando tenía menos de 18 años, descubrieron que alguien había creado material de abuso sexual infantil generado por inteligencia artificial a partir de fotografías que publicaron en las redes sociales. El acusado supuestamente distribuyó estas imágenes junto con los nombres de las víctimas y el nombre de su escuela, aumentando así el riesgo de lesiones corporales. El acusado fue arrestado en diciembre pasado y la denuncia dice que los demandantes, conocidos como Jane Dos 1, 2 y 3, sufrían de ansiedad severa, especialmente en la escuela.
Pero Rhianna Pfefferkorn, investigadora de políticas en el Instituto de Inteligencia Artificial Centrada en Humanos de Stanford y experta en leyes que rodean el material de abuso sexual infantil generado por IA, dijo que esta demanda parece estar “demandando a xAI en modo difícil” porque la demanda no vincula directamente los deepfakes de dos de los demandantes con Grok.
-
Lea a continuación:
Hay otros desafíos que estos casos enfrentan contra XAI. Legalmente, Pfefferkorn dijo que xAI ha indicado que intentará desestimar los casos bajo la Sección 230 de la Ley de Decencia en las Comunicaciones, que establece que las plataformas no son responsables de lo que publican sus usuarios a menos que esté relacionado con el tráfico sexual. (El caso presentado el lunes alega que xAI violó la Ley de Protección a Víctimas de la Trata de Personas). Esta es un área de debate legal abierto, ya que si bien los humanos supuestamente pagaron a Grok para crear las imágenes, la cuenta de Grok publicó el deepfake.
Ahmed dijo que estos casos pueden ser una oportunidad para aclarar que las plataformas de inteligencia artificial deben asumir la responsabilidad del discurso que producen. “Nuestro marco legal necesita cambiar para hacer frente a las nuevas realidades”, dijo, pidiendo la reforma del artículo 230.
La Ley federal DEFIANCE, si se aprueba, podría proporcionar otra vía hacia la compensación financiera para las víctimas de deepfake. Factura encuesta del senadoy los defensores Se reúnen para votar en el pleno de la Cámara.
La demanda colectiva se presentó el lunes en el Distrito Norte de California, al igual que las otras demandas colectivas. St. Clair presentó su caso en el Distrito Sur de Nueva York, donde vive. Los dos casos anteriores están relacionados con solicitudes de litigio en Texas. xAI afirma que los usuarios de Grok aceptaron términos de servicio que requieren que todos los casos se presenten en el Distrito Norte de Texas, hogar de la jurisdicción conservadora en la que opera. Al menos una ocasión Fallo a favor de Musk.



















