Meta permitió que un video generado por IA no fuera verificado en Facebook durante la guerra de 12 días entre Israel e Irán en junio de 2025, según un nuevo fallo publicado hoy por la junta de supervisión.
El vídeo inventado, publicado por un usuario en Filipinas que se hacía pasar por una fuente de noticias, mostraba grandes daños en edificios en Haifa, la tercera ciudad más grande de Israel. Esto fue informado por seis usuarios, y sitios de noticias confiables en TikTok previamente desacreditaron un video similar. Pero Meta no tomó ninguna medida a pesar de que se informó sobre el video, según la Junta de Supervisión, que a menudo se describe como el “tribunal supremo” para las decisiones de moderación de contenido de Meta. La junta directiva anuló la decisión de Meta de dejar los vídeos online sin la etiqueta de “alto riesgo de IA”.
La junta dijo que si bien el contenido no justificaba su eliminación (no había una amenaza inminente de daño físico o violencia), su falta de autenticidad debería haberse comunicado claramente.
A medida que aumente la cantidad y calidad del contenido generado por IA, su impacto en las personas y las sociedades será profundo.
“A medida que aumente la cantidad y calidad del contenido generado por la inteligencia artificial, su impacto en las personas y las sociedades será profundo”, señaló el consejo en su decisión sobre el caso.
La decisión del Consejo llega en un momento Como vídeos generados por inteligencia artificial. Este fenómeno se está extendiendo en medio de la actual guerra estadounidense-israelí contra Irán. Tanto Israel como Irán son actores estatales. Generando deepfakes A un ritmo más rápido que en tiempos de paz, según NoticiasGuardiauna plataforma que evalúa la confiabilidad de las noticias e información en línea. A análisis de la BBC Descubrí que los creadores de redes sociales más pequeños son Usando herramientas de inteligencia artificial Crear y monetizar imágenes de guerra falsas.
Meta se basa en metadatos para identificar el contenido generado por IA, lo que la empresa admitió ante la junta durante la investigación. Esto se aplica en gran medida sólo a imágenes fijas, e incluso entonces, los usuarios pueden eliminar metadatos de las imágenes antes de subirlas a las redes sociales. Principalmente, plataformas Confiar en la autorrevelación – Las herramientas para detectar y denunciar la manipulación de audio y vídeo aún están poco desarrolladas.
La junta de supervisión enfatizó que Meta debe “hacer más” para ayudar a los usuarios a identificar contenido generado por IA en conflictos armados, incluyendo proporcionar detalles sobre el origen de los medios, invertir en herramientas de detección más sólidas y desarrollar mejores métodos de etiquetado, y hacer todo esto de manera oportuna.
en Entrevista con resto del mundo El mes pasado, Sudhir Krishnaswamy, miembro de la Junta de Supervisión, dijo que el mandato de la junta podría ser “menos dependiente de casos individuales y más estructurado” para realizar reformas y recomendaciones amplias a medida que se propaga la IA.
Los expertos advierten que las plataformas tendrán que lidiar con niveles de desinformación sin precedentes en la era de la inteligencia artificial. “Mientras que otros conflictos, incluidos los de Armenia, Ucrania y Gaza, He visto copioso Imágenes recicladas, Transmisiones en vivo falsasy Tome un fragmento de un juego de computadora“El contenido generado por IA relacionado con el conflicto Irán-Israel ha llevado la desinformación a un nivel industrial”, dijeron Mahsa Alimardani y Sam Gregory, investigadores de derechos humanos de la organización sin fines de lucro Witness International. libros En junio de 2025.
















