Los científicos han encontrado una forma alucinante de atrapar profundos ocultando códigos invisibles dentro de las fuentes de luz ordinarias

- La iluminación codificada por ruido esconde las marcas de agua invisibles de los videos dentro de los patrones de luz para la detección de manipulación
- El sistema permanece efectivo en la iluminación variada, los niveles de compresión y las condiciones de movimiento de la cámara
- Los perdedores deben replicar múltiples videos de código de coincidencia para omitir la detección correctamente
Los investigadores de la Universidad de Cornell han desarrollado un nuevo método para detectar videos manipulados o generados por IA integrando señales codificadas en fuentes de luz.
La técnica, conocida como iluminación codificada por ruido, oculta información dentro de las fluctuaciones de luz aparentemente aleatorias.
Cada marca de agua integrada conlleva una versión de baja fidelidad y estampada de tiempo de la escena original bajo iluminación ligeramente alterada, y cuando se produce una manipulación, las áreas manipuladas no coinciden con estas versiones codificadas, revelando evidencia de alteración.
El sistema funciona a través del software para pantallas de computadora o adjuntando un chip pequeño a las lámparas estándar.
Debido a que los datos integrados aparecen como ruido, detectarlo sin la clave de decodificación es extremadamente difícil.
Este enfoque utiliza la asimetría de información, asegurando que aquellos que intenten crear defensores profundos carecen de acceso a los datos integrados únicos necesarios para producir falsificaciones convincentes.
Los investigadores probaron su método en una variedad de técnicas de manipulación, que incluyen defectos profundos, compuestos y cambios en la velocidad de reproducción.
También lo evaluaron en variadas condiciones ambientales, como diferentes niveles de luz, grados de compresión de video, movimiento de la cámara y configuraciones interiores y exteriores.
En todos los escenarios, la técnica de luz codificada retuvo su efectividad, incluso cuando las alteraciones ocurrieron en niveles demasiado sutiles para la percepción humana.
Incluso si un falsificador aprendiera el método de decodificación, necesitaría replicar múltiples versiones de coincidencia de código de las imágenes.
Cada uno de estos tendría que alinearse con los patrones de luz ocultos, una tarea que aumenta en gran medida la complejidad de producir falsificaciones de video indetectables.
La investigación aborda un problema cada vez más urgente en la autenticación de los medios digitales, ya que la disponibilidad de herramientas de edición sofisticadas significa que las personas ya no pueden asumir que el video representa la realidad sin duda.
Si bien los métodos como las sumas de verificación pueden detectar cambios de archivo, no pueden distinguir entre compresión inofensiva y manipulación deliberada.
Algunas tecnologías de marca de agua requieren control sobre el equipo de grabación o el material fuente original, lo que las hace poco prácticas para un uso más amplio.
La iluminación codificada por ruido podría integrarse en suites de seguridad para proteger los alimentos de video sensibles.
Esta forma de autenticación integrada también puede ayudar a reducir los riesgos de robo de identidad salvaguardando los registros de video personales o oficiales de la manipulación no detectada.
Aunque el equipo de Cornell reconoció la fuerte protección que ofrece su trabajo, dijo que el desafío más amplio de la detección de Deepfake persistirá a medida que evolucionen las herramientas de manipulación.