Según una encuesta encargada por la policía, una de cada cuatro personas piensa que no hay nada malo en crear y compartir deepfakes sexuales, o se siente neutral al respecto, incluso cuando la persona representada no dio su consentimiento.
Los hallazgos han llevado a un alto funcionario de policía a advertir que el uso de la IA está acelerando una epidemia de violencia contra mujeres y niñas (VAWG) y que las empresas de tecnología son cómplices de este abuso.
La encuesta de 1.700 personas encargada por la oficina del asesor científico jefe de la policía encontró que el 13% pensaba que no había nada malo en crear y compartir deepfakes sexuales o íntimos: contenido alterado digitalmente creado utilizando IA sin consentimiento.
Otro 12% se sintió neutral sobre la aceptabilidad moral y legal de crear y compartir tales deepfakes.
La detective Claire Hammond, del centro nacional de VCMR y protección pública, recordó al público que “compartir imágenes íntimas de alguien sin su consentimiento, ya sean imágenes reales o no, es una profunda violación”.
Al comentar sobre los hallazgos de la encuesta, dijo: “El auge de la tecnología de inteligencia artificial está acelerando la epidemia de violencia contra mujeres y niñas en todo el mundo. Las empresas tecnológicas son cómplices de este abuso y han hecho que crear y compartir material abusivo sea tan simple como hacer clic en un botón, y deben actuar ahora para detenerlo”.
Instó a las víctimas de deepfakes a denunciar cualquier imagen a la policía. Hammond dijo: “Este es un delito grave y lo apoyaremos. Nadie debería sufrir en silencio o avergonzado”.
La creación de deepfakes sexualmente explícitos y no consensuados es un delito penal según la nueva Ley de Datos.
El informe, elaborado por la consultora sobre crimen y justicia Crest Advisory, encontró que el 7% de los encuestados habían sido representados en un deepfake sexual o íntimo. De ellos, sólo el 51% lo denunció a la policía. Entre los que no se lo dijeron a nadie, las razones más citadas fueron la vergüenza y la incertidumbre de que el crimen sería tratado con seriedad.
Los datos también sugirieron que a los hombres menores de 45 años probablemente les resultaría aceptable crear y compartir deepfakes. Este grupo también era más propenso a ver pornografía en línea y estar de acuerdo con puntos de vista misóginos, además de tener sentimientos positivos hacia la IA. Pero el informe dijo que esta asociación de la edad y el género con tales puntos de vista era débil y pidió más investigaciones para explorar esta aparente asociación.
Uno de cada 20 encuestados admitió haber creado deepfakes en el pasado. Más de uno de cada diez dijo que crearía uno en el futuro. Y dos tercios de los entrevistados dijeron que habían visto, o podrían haber visto, un deepfake.
La autora del informe, Callyane Desroches, jefa de políticas y estrategia de Crest Advisory, advirtió que la creación de deepfakes se estaba “normalizando cada vez más a medida que la tecnología para hacerlos se vuelve más barata y accesible”.
Y añadió: “Si bien algunos contenidos deepfake pueden parecer inofensivos, la gran mayoría del contenido de vídeo está sexualizado, y las mujeres son el blanco abrumador de los ataques.
“Estamos profundamente preocupados por lo que destacó nuestra investigación: que hay un grupo de jóvenes que miran activamente pornografía y tienen opiniones que se alinean con la misoginia y que no ven ningún daño en ver, crear y compartir deepfakes sexuales de personas sin su consentimiento”.
Cally Jane Beech, una activista que hace campaña por una mejor protección para las víctimas de abusos deepfake, dijo: “Vivimos en tiempos muy preocupantes, el futuro de nuestras hijas (e hijos) está en juego si no empezamos pronto a tomar medidas decisivas en el espacio digital.
Y añadió: “Estamos ante toda una generación de niños que crecieron sin salvaguardias, leyes o normas al respecto, y ahora estamos viendo el efecto negativo de esa libertad.
“Detener esto comienza en casa. La educación y la conversación abierta deben reforzarse todos los días si alguna vez tenemos la oportunidad de poner fin a esto”.

















