Se estima que en 2025 se compartirán 8 millones de deepfakes, frente a 500.000 en 2023, según datos del gobierno. [File]
| Crédito de la foto: AP

Gran Bretaña trabajará con Microsoft, académicos y expertos para desarrollar un sistema que detecte material falso en línea, dijo el gobierno el jueves. a medida que avanza para establecer estándares para “combatir el contenido dañino y engañoso generado por IA”.

Si bien el material manipulado ha circulado en línea durante décadas, la rápida adopción de chatbots de IA generativa, posible gracias al lanzamiento de ChatGPT y otros, ha amplificado las preocupaciones sobre la escala y el realismo de los deepfakes.

Gran Bretaña, que recientemente penalizó la creación de imágenes íntimas no consentidas, dijo que estaba trabajando en un marco de evaluación de detección de deepfake para establecer estándares consistentes para evaluar las herramientas y tecnologías de detección.

“Los delincuentes están utilizando los deepfakes como arma para defraudar al público, explotar a mujeres y niñas y socavar la confianza en lo que vemos y oímos”, dijo la ministra de Tecnología, Liz Kendall, en un comunicado.

El marco evaluará cómo se puede utilizar la tecnología para evaluar, comprender y detectar materiales deepfake dañinos independientemente de su fuente, dijo el gobierno, probando tecnologías de detección de deepfake contra amenazas del mundo real como abuso sexual, fraude y suplantación de identidad.

Esto ayudaría al gobierno y a las autoridades a obtener una mejor comprensión de dónde persisten las brechas en la detección, dijo, y agregó que el marco se utilizaría para establecer expectativas claras para las industrias con respecto a los estándares de detección de deepfake.

Se estima que en 2025 se compartirán 8 millones de deepfakes, frente a 500.000 en 2023, según datos del gobierno.

Los gobiernos y reguladores de todo el mundo, que luchan por mantenerse al día con la rápida evolución de la tecnología de inteligencia artificial, se sintieron impulsados ​​a actuar este año cuando se descubrió que el chatbot Grok de Elon Musk generaba imágenes sexualizadas no consensuadas de personas, incluidos niños.

El organismo británico de vigilancia de las comunicaciones y la privacidad está llevando a cabo investigaciones paralelas sobre Grok.

Fuente