El chatbot Grok de Elon Musk pasó la primera semana de 2026 no como un peculiar asistente de inteligencia artificial “picante”, sino como el centro de un escándalo global sobre deepfakes sexualizados de mujeres y menores. Lo que comenzó como un truco viral para “despojar la IA” en X rápidamente se convirtió en investigaciones paralelas en Europa, India, Malasia y el Reino Unido, y una prueba de resistencia sobre cómo los reguladores abordan el abuso generado por la IA a escala de plataforma.

Grok es el asistente de inteligencia artificial de Musk integrado en X, con un “modo picante” pago y, más recientemente, potentes herramientas de imágenes de la marca Grok Imagine y un botón de “editar imagen”. A finales de diciembre,

A los pocos días, las mujeres comenzaron a publicar que extraños habían usado Grok para generar desnudos falsos y ediciones sexualizadas de sus fotos públicas, a veces colocándolas en bikinis transparentes o en poses explícitamente sugerentes. J.Luego, periodistas e investigadores demostraron que Grok a menudo cumplía incluso cuando las instrucciones hacían referencia a menores, incluido el caso ampliamente citado de una actriz de 14 años que cruzó directamente al territorio de material de abuso sexual infantil (CSAM).

Nuevo punto de inflexión

Si bien los deepfakes no consensuados han estado circulando en X y otras plataformas durante años, esta semana marcó un cambio estructural. Esto se debe a que este abuso acaba de incorporarse a X como una característica, y no simplemente como algo que sucede en las sombras. En las líneas de tiempo públicas, los usuarios etiquetaron abiertamente a Grok debajo de las fotos con instrucciones de “desvestir” a las mujeres o “hacer transparente la ropa de esta niña”, con resultados generados por IA visibles para millones de personas.

Los investigadores de seguridad y los grupos de defensa argumentaron que esto cruzó una línea crucial, ya que X sabía o debería haber sabido que las herramientas de “nudificación” tienen un alto riesgo de abuso de imágenes íntimas no consensuales (NCII) y CSAM. Aun así, la función se envió como estándar. Además, esta característica funciona en cualquier foto en X. Esto significa que potencialmente se puede abusar de la imagen de cualquier usuario. Además, las víctimas tenían pocos recursos, ya que las imágenes se difundían a través de citas y publicaciones más rápido de lo que podían denunciarse o eliminarse.

El gobierno y los reguladores se suman

La respuesta regulatoria ha ido aumentando casi día a día. En Europa, la Comisión Europea dijo que está “investigando seriamente” a Grok por “espantosos” y “repugnantes” deepfakes infantiles, y enfatizó que no se trata de contenido “picante” pero probablemente sea ilegal según la legislación de la UE. Por otra parte, Francia amplió una investigación penal existente sobre X para incluir explícitamente acusaciones de que Grok está siendo utilizado para generar y difundir pornografía infantil.

El ministerio de TI de la India (MeitY) ha ordenado a X que elimine el contenido sexualizado y tome medidas contra las cuentas ofensivas. y presentar un informe de “Acciones tomadas” dentro de las 72 horas, advirtiendo de las consecuencias legales si no cumple. La orden también pedía una “revisión técnica, procesal y de gobernanza exhaustiva” de las salvaguardias de Grok.

La Comisión de Comunicaciones y Multimedia de Malasia anunció una investigación y dijo que convocaría a representantes de X, argumentando que todas las plataformas deben alinear las funciones de manipulación de imágenes e inteligencia artificial con las normas nacionales de seguridad en línea.

El regulador del Reino Unido hizo un “contacto urgente” con X y xAI luego de informes de que Grok estaba generando “imágenes de personas desnudas e imágenes sexualizadas de niños”. El regulador solicitó detalles sobre cómo X está cumpliendo con sus obligaciones legales bajo el nuevo régimen de seguridad en línea del Reino Unido y prometió una “evaluación rápida” de posibles violaciones.

Australia, Nueva Zelanda y otros mercados también han aumentado la presión, presentando a Grok como un caso de prueba para determinar si los países realmente harán cumplir las leyes de seguridad en línea y CSAM contra las herramientas de inteligencia artificial integradas en las principales plataformas.

De hecho, Grok se convirtió en el primer caso de alto perfil en el que la “nudificación” de la IA desencadena un escrutinio regulatorio sincronizado en múltiples jurisdicciones en una sola semana.

La postura del Sr. Musk y X

X admitió que hubo “fallos de salvaguardia”, reconociendo que Grok Imagine a veces producía imágenes sexualizadas de menores y niños con poca ropa. Las políticas oficiales ahora reiteran la prohibición de representaciones pornográficas de personas identificables y cualquier contenido sexual que involucre a menores, y X ha advertido a los usuarios que pedirle a Grok material ilegal conlleva las mismas consecuencias que subirlo directamente.

Al mismo tiempo, la postura pública de Musk ha sido desafiante e irreverente. Volvió a publicar imágenes generadas por Grok, incluida una de él mismo en bikini, con emojis de risa, incluso cuando los reguladores denunciaron el abuso como explotación sexual infantil ilegal. Su principal argumento es que el problema radica en los “malos usuarios” más que en el diseño del sistema de inteligencia artificial, insistiendo en que aquellos que hagan mal uso de Grok enfrentarán un escrutinio mientras defienden la marca audaz y sin filtros del chatbot.

Este revés técnico parcial, junto con las señales de guerra cultural, está alimentando la sensación de que los cortafuegos de Grok son reactivos, están influenciados políticamente y no son lo suficientemente sólidos para casos de uso de alto riesgo como la edición de imágenes de personas reales.

Por ahora, Grok sigue activo en X, los reguladores todavía están recopilando datos y las víctimas todavía están intentando eliminar las imágenes. Las próximas semanas mostrarán si esta controversia terminará en multas y ajustes incrementales, o en una redefinición más fundamental de cómo las herramientas de imágenes de IA pueden operar en plataformas convencionales.

Publicado – 8 de enero de 2026, 1:19 p. m. IST

Fuente