Entre los demandantes se encuentran dos menores de edad y un adulto que era menor de edad cuando ocurrieron los hechos del caso. Una de las víctimas, identificada como “Jane Doe 1”, alega que en diciembre pasado se enteró de que imágenes explícitas de ella y de al menos otros 18 menores generadas por IA estaban disponibles en Discord. “Al menos cinco de estos archivos, un vídeo y cuatro imágenes, mostraban su rostro y cuerpo reales en entornos que le resultaban familiares, pero fueron transformados en poses sexualmente explícitas”, afirma la demanda.
El autor, que desde entonces ha sido arrestado, supuestamente utilizó el CSAM generado por IA de Jane Doe 1 “como herramienta de intercambio en chats grupales de Telegram con cientos de otros usuarios, intercambiando sus archivos CSAM por contenido sexual explícito de otros menores”. La demanda afirma que el perpetrador generó imágenes explícitas de Jane Doe 1 y las otras dos víctimas usando Grok. También afirma que xAI “no pudo probar la seguridad de las funciones que desarrolló” y que Grok tiene “un diseño defectuoso”.
Aunque X tiene Intenté ponérselo difícil a los usuarios. para editar imágenes con Grok, el borde descubrió que todavía es posible manipular imágenes enviadas a la plataforma. X afirmó que “cualquiera que utilice o anime a Grok a crear contenido ilegal sufrirá las mismas consecuencias que si subiera contenido ilegal”. X no respondió inmediatamente el bordesolicitud de comentario.
“Estos son niños cuyas fotografías escolares y familiares fueron convertidas en material de abuso sexual infantil mediante una herramienta de inteligencia artificial de una compañía de mil millones de dólares y luego intercambiadas entre depredadores”, dijo en un comunicado una de las abogadas de las víctimas, Annika K. Martin de Lieff Cabraser. “Tenemos la intención de responsabilizar a xAI por cada niño al que dañó de esta manera”.
La demanda busca compensación para las víctimas afectadas por las “imágenes ilegales” de Grok. También pide al tribunal que impida que xAI genere y difunda presuntos CSAM generados por IA.
















