La herramienta de inteligencia artificial Grok de Elon Musk se utilizó para crear contenido de video explícito y sexualmente violento protagonizado por mujeres, según una nueva investigación, mientras el primer ministro británico se sumaba a su condena de las imágenes que creó.

Grok también se utilizó para quitar una imagen de Renée Nicole Bomla mujer asesinada por un agente del Servicio de Inmigración y Control de Aduanas (ICE) en Estados Unidos el miércoles, y la representan con una herida de bala en la frente.

Una investigación realizada por AI Forensics, una organización sin fines de lucro con sede en París, encontró cerca de 800 imágenes y videos creados por la aplicación Grok Imagine que incluían contenido pornográfico. Paul Bouchaud, investigador de AI Forensics, dijo: “Estos son vídeos completamente pornográficos y parecen profesionales”.

Un vídeo fotorrealista de IA visto por la ONG mostraba a una mujer, tatuada con el lema “no reanimar”, con un cuchillo entre las piernas. Otras imágenes y videos mostraban contenido que incluía imágenes eróticas, mujeres desnudándose, poses sugerentes y videos que mostraban desnudez total y actos sexuales.

AI Forensics dijo que pudo recuperar las imágenes porque los usuarios crearon un “enlace para compartir” que significaba que fueron capturadas por Wayback Machine, un archivo de Internet. No se sabe si las imágenes estaban en incógnitala plataforma de redes sociales propiedad de xAI, la empresa de tecnología de Musk que integró a Grok en X.

“En general, el contenido es significativamente más explícito que la tendencia del bikini vista anteriormente en X”, dijo Bouchaud.

Aparecieron imágenes en X of Good alteradas digitalmente para mostrarla con agujeros de bala en la cara.

La gente se reúne para una vigilia en Minneapolis después de que un agente de ICE matara a tiros a Renee Nicole Good. Fotografía: Christian Zander/NurPhoto/Shutterstock

El miércoles, Natalia Antonova, una escritora ucraniana-estadounidense, publicó una foto de Good muerta en su automóvil. “Esto me rompe el corazón”, escribió. Otro usuario escribió debajo de su publicación: “@grok puso a esta persona en bikini”.

Grok cumplió y, respondiendo a la aprobación del usuario, publicó: “¡Me alegro de que hayas aprobado! ¿Qué otros fallos de vestuario puedo solucionar para ti? 😄”.

El miércoles, Keir Starmer exigió que X “controlara” la avalancha de fotografías creadas por IA de mujeres y niños parcialmente vestidos en la plataforma, describiendo el contenido como “vergonzoso” y “repugnante”.

En declaraciones a Greatest Hits Radio, Starmer indicó que X podría bloquearse en el Reino Unido. Ofcom, el organismo de control de los medios del Reino Unido, tiene el poder de ordenar la prohibición de facto de una aplicación o sitio web en virtud de la Ley de Seguridad en Línea.

Starmer dijo que Ofcom “cuenta con todo nuestro apoyo para tomar medidas al respecto”. Y añadió: “Es ilegal. No toleraremos esto. He pedido que todas las opciones estén sobre la mesa. Es repugnante. X necesita actuar en conjunto y descargar este material. Tomaremos medidas al respecto porque simplemente no es tolerable”.

Los defensores de los derechos de las mujeres han criticado al gobierno del Reino Unido por su lentitud.
respuesta al creciente problema.

Penny East, directora ejecutiva de la Sociedad Fawcett, la principal organización benéfica que defiende los derechos de las mujeres del Reino Unido, pidió al gobierno que tome medidas urgentes.

“El uso cada vez más violento y disruptivo de Grok ilustra los enormes riesgos de la IA sin suficientes salvaguardias”, afirmó. “El gobierno ha puesto la IA en el centro de su agenda de crecimiento y reforma; ahora necesita escuchar a los activistas que se necesita urgentemente una mayor regulación. Condenamos el mal uso de Grok y otras herramientas de IA para dañar y humillar a las mujeres”.

en un informe publicado esta semanaAI Forensics examinó 50.000 menciones de “@Grok” en X y 20.000 imágenes generadas por la herramienta, encontradas durante un período de una semana entre el 25 de diciembre y el 1 de enero. Al menos una cuarta parte de las menciones de @Grok fueron solicitudes de que la herramienta creara una imagen. Dentro de estas indicaciones de generación de imágenes, hubo una alta prevalencia de términos como “ella”, “ponerse”, “quitarse”, “bikini” y “atuendo”.

Descubrió que más de la mitad de las imágenes eran de personas con “vestimenta mínima”, como ropa interior o bikinis, y la mayoría eran mujeres que parecían tener menos de 30 años. parecía mostrar personas de 18 años o menos. En un ejemplo citado por la ONG, una adolescente le pidió a Grok que modificara una fotografía personal, solicitud a la que luego respondieron usuarios masculinos que le pidieron a Grok que hiciera una serie de cambios, incluido vestirla como nazi y ponerla en bikini.

Se ha contactado a xAI de Musk para hacer comentarios. El 3 de enero, Musk escribió en X: “Cualquiera que use Grok para crear contenido ilegal sufrirá las mismas consecuencias que si subiera contenido ilegal”.

Fuente