La imagen de satélite publicada por un medio de comunicación iraní parecía real: una base estadounidense devastada en Qatar. Pero fue un engaño generado por IA, que subraya la creciente amenaza de la desinformación basada en la tecnología durante tiempos de guerra.

El auge de la IA generativa ha aumentado la capacidad de los actores estatales y los propagandistas para fabricar imágenes satelitales convincentes durante los grandes conflictos, una tendencia que los investigadores advierten que tiene implicaciones para la seguridad en el mundo real.

Seguir | Guerra Israel-Irán EN VIVO

A medida que se intensifica la guerra entre Estados Unidos e Israel contra Irán, el Tehran Times, un diario inglés alineado con el Estado, publicó en X una imagen de “antes versus después” que, según afirmó, mostraba equipos de radar estadounidenses “completamente destruidos” en una base en Qatar.

En realidad, era una versión manipulada por IA de una imagen de Google Earth del año pasado de una base estadounidense en Bahrein, dijeron los investigadores.

Los sutiles indicios visuales incluyeron una fila de autos estacionados en posiciones idénticas tanto en la fotografía satelital auténtica como en la imagen manipulada.

Sin embargo, la foto manipulada obtuvo millones de visitas a medida que se difundió en las redes sociales en varios idiomas, lo que ilustra cómo los usuarios son cada vez más incapaces de distinguir la realidad de la ficción en plataformas saturadas de imágenes generadas por IA.

Brady Africk, un investigador de inteligencia de código abierto, ha notado un “aumento de imágenes satelitales manipuladas” que aparecen en las redes sociales a raíz de acontecimientos importantes, incluida la guerra en el Medio Oriente.

“Muchas de estas imágenes manipuladas tienen las características de una generación imperfecta de IA: ángulos extraños, detalles borrosos y rasgos alucinados que no se alinean con la realidad”, dijo Africk a la AFP.

“Otros parecen ser una imagen manipulada manualmente, a menudo superponiendo indicadores de daños u otros cambios en una imagen de satélite que, para empezar, carecía de ese detalle”, dijo.

El analista de guerra de información Tal Hagin señaló otra imagen satelital generada por IA que pretendía mostrar que aviones israelíes-estadounidenses apuntaban a la silueta pintada de un avión en tierra en Irán, mientras que Teherán aparentemente volaba aviones reales en otros lugares.

Las pistas reveladoras incluían coordenadas galimatías incrustadas en la imagen falsa, que se difundieron en sitios como Instagram, Threads y X.

La AFP detectó un SynthID, una marca de agua invisible destinada a identificar imágenes creadas con la IA de Google.

Las imágenes de satélite fabricadas siguen a la aparición de OSINT, o inteligencia de fuente abierta, cuentas impostoras en las redes sociales que parecen socavar el trabajo de investigadores digitales creíbles.

“Debido a la niebla de la guerra, puede ser muy difícil determinar el éxito de los ataques de un adversario. OSINT ha surgido como una solución, utilizando imágenes públicas de satélite para eludir la censura” en países como Irán, dijo Hagin.

“Pero ahora está siendo atacado por agentes de desinformación”, añadió.

Los informes de imágenes satelitales falsas creadas o editadas con inteligencia artificial también surgieron después del conflicto entre Rusia y Ucrania y la guerra de cuatro días entre India y Pakistán el año pasado.

“Las imágenes satelitales manipuladas, al igual que otras formas de desinformación, pueden tener impactos en el mundo real cuando las personas actúan sobre la información que encuentran sin verificar su autenticidad”, dijo Africk.

“Esto puede tener efectos que van desde influir en la opinión pública sobre un tema importante, como si un país debería involucrarse o no en un conflicto, hasta impactar los mercados financieros”.

En la era de la IA, las imágenes satelitales auténticas de alta resolución recopiladas en tiempo real pueden proporcionar a los responsables de la toma de decisiones pistas vitales para evaluar las amenazas a la seguridad. y desacreditar falsedades de fuentes no verificadas.

Durante un reciente ataque militante al aeropuerto de Niamey en Níger, la firma de inteligencia satelital Vantor dijo que detectó imágenes que circulaban en línea que pretendían mostrar la principal terminal civil en llamas.

Las propias imágenes satelitales de la compañía ayudaron a confirmar que las fotos eran falsas, casi con toda seguridad generadas mediante inteligencia artificial, dijo a la AFP Tomi Maxted de Vantor.

“Cuando una imagen de satélite se presenta como evidencia visual en el contexto de una guerra, puede influir fácilmente en cómo la gente interpreta los acontecimientos”, dijo a la AFP Bo Zhao, de la Universidad de Washington.

A medida que las imágenes generadas por IA se vuelven cada vez más convincentes, es “importante que el público aborde este contenido visual con precaución y conciencia crítica”, dijo Zhao.

Publicado – 9 de marzo de 2026 9:04 am IST

Fuente