En una habitación oscura del barrio londinense de Shoreditch, una enorme pantalla cobra vida mostrando un mapa del Mar Báltico. Con sólo unas pocas teclas, los datos de navegación marítima se superponen en el mapa, mostrando los barcos en movimiento. Otro comando saca a la luz los recorridos de los cables submarinos de telecomunicaciones.
Casi de inmediato, uno de los barcos, un barco con bandera de Liberia que se dirige al cable de Internet BCS East-West Interlink que une Lituania y Suecia, aparece como un icono rojo.
Basándose en los datos del perfil de la embarcación, dominAI, el software impulsado por IA que monitorea la situación ficticia, identificó la embarcación como una amenaza potencial. El operador puede enviar inmediatamente un dron militar o un buque de guerra para interceptar. Luego, el sistema ejecuta simulaciones de cada respuesta posible, asignando probabilidades de éxito para guiar la toma de decisiones.
El escenario es una demostración basada en hechos reales: en noviembre de 2024, la interconexión Este-Oeste fue uno de los dos cables de comunicaciones submarinos dañados en 24 horas por actores desconocidos. Las autoridades sospecharon de un sabotaje.
DominAI es una creación de Hadean, una antigua empresa de juegos con sede en Londres que ahora está posicionando su software como la solución de comando y control que el ejército del Reino Unido necesita para la próxima generación de conflictos.
Gran Bretaña ha asignado miles de millones de libras para construir una “red de objetivos digitales”, un esfuerzo por utilizar inteligencia artificial para fusionar datos de múltiples fuentes, tanto civiles como militares, en una única red de comando. Esto permitiría a los comandantes tomar decisiones más rápidas y mejor informadas sobre la rapidez con la que escalar una respuesta desde la mera vigilancia a la intervención armada contra amenazas que emergen rápidamente.
“La IA sustenta toda la arquitectura militar, está o estará en el centro del proceso de selección de objetivos”, dice Sir Richard Barrons, ex general del ejército británico y uno de los autores de la Revisión de Defensa Estratégica 2025 del Reino Unido.
Aún faltan años para que haya máquinas inteligentes totalmente autónomas en el campo de batalla, pero la IA ya está acelerando la forma en que los humanos procesan la información y toman decisiones bajo presión. Estados Unidos ya ha desplegado un sistema de mando y control impulsado por IA. Maven, diseñado por el grupo de inteligencia de datos Palantir, se utilizó en combate durante los ataques aéreos estadounidenses en Yemen en 2024. Desde entonces, la OTAN ha adoptado variantes del software.
El primer desafío que la IA está tratando de resolver es mover datos a través de un campo de batalla sin torres de telefonía celular y vencer la interferencia electrónica generalizada, dice Will Blyth, cofundador y director ejecutivo de Arondite, que ha desarrollado un sistema inteligente llamado Cobalt.
“Se necesita mucha innovación para minimizar la cantidad de datos que se deben mover”. Por lo tanto, los modelos de IA pueden procesar flujos masivos de imágenes o señales de sonar, reduciendo la dependencia de operadores humanos cansados. “A partir de ahí”, añade Blyth, “se trata de orquestación: nombrar de manera confiable el mejor activo disponible, ya sea un dron, un robot o un equipo humano, y hacerlo lo más rápido posible”.
Sin embargo, la velocidad es sólo una parte de la transformación prometida por la IA. El otro es el concepto militar de masas: la idea de que los drones y robots autónomos pueden llenar vacíos numéricos en guerras contra enemigos más grandes.
La frontera oriental de 4.300 kilómetros de la OTAN con Rusia ha estimulado nuevas ideas en la alianza sobre cómo utilizar drones para compensar la falta de efectivos. La guerra en Ucrania ya ha demostrado una revolución en la robótica, con drones baratos con vista en primera persona (FPV), controlados remotamente por un operador, que ayudan al ejército del país a combatir fuerzas rusas más grandes. Las tropas rusas también están utilizando drones.
El siguiente paso es la autonomía: drones y robots terrestres que ya no necesitan operadores humanos individuales. El Cuerpo de Marines de EE. UU. en noviembre al corriente un vídeo de tropas entrenando con múltiples drones cuadricópteros construidos por Auterion, con sede en EE. UU., que ejecuta un software que “aplica IA en tiempo real para permitir a los soldados desplegar enjambres que operan como una sola fuerza”, según la compañía.
“Si eres un equipo de cuatro que cubre 20 km de primera línea en Ucrania”, dice Dean Jones, cofundador de Gallos, “solo puedes controlar hasta cierto punto usando FPV y robótica. [So] También tendrá que haber un elemento de respuesta autónoma”. Ucrania aprobó recientemente el robot semiautónomo “Krampus”, un vehículo terrestre no tripulado (UGV) armado, para su despliegue en el campo de batalla.
Cierto grado de autonomía también es fundamental para la navegación frente a interferencias de guerra electrónica que pueden socavar el control de radio directo por parte de los operadores. ARX Robotics, una nueva empresa alemana, emplea UGV en Ucrania que pueden navegar siguiendo puntos de referencia evitando colisiones si las comunicaciones no son posibles, dice David Roberts, director ejecutivo de ARX UK.
En los cielos, el Reino Unido está invirtiendo alrededor de £2 mil millones al año en el Programa Global de Aviones de Combate, un caza de sexta generación “opcionalmente tripulado” que se construirá conjuntamente con Japón e Italia para 2042. Debería funcionar en conjunto con drones, o los llamados “compañeros leales”, que ya están en desarrollo para volar junto con aviones tripulados.
Debajo de las olas, submarinos autónomos como el Ghost Shark de Anduril, vendido recientemente a Australia, y robots submarinos de detección de submarinos como el SG-1 Fathom de Helsing se están convirtiendo rápidamente en una realidad.
Estos drones de larga vida, o “planeadores”, se mueven alterando su flotabilidad y existen desde hace décadas. Pero Helsing equipó su sistema con una IA, llamada Tratamientoclasificar firmas acústicas de barcos y submarinos.
Sin embargo, a medida que se extiende la autonomía, se profundizan las cuestiones éticas y legales. ¿Puede realmente una máquina distinguir a los combatientes de los civiles –o comprender el peso moral de los llamados daños colaterales?
Jessica Dorsey, de la Universidad de Utrecht, advierte que “dado que los seres humanos son los responsables en última instancia de garantizar el cumplimiento del derecho internacional humanitario, es fundamental preservar el juicio humano apropiado al contexto”. Advierte que los sistemas de inteligencia artificial pueden comprimir juicios morales y legales complejos en “modelos algorítmicos”.
Asimismo, cuando las máquinas generan cientos de objetivos potenciales por hora, los operadores corren el riesgo de caer en un “sesgo de automatización” (confiar en el sistema por defecto) o un “sesgo de acción” (sentirse obligados a actuar porque el sistema lo exige). Como señala Dorsey, “el desafío no es simplemente si los sistemas algorítmicos pueden ayudar, sino cómo remodelan la arquitectura mental y el proceso de comando responsable”.
La cantidad de juicio que los humanos están dispuestos a entregarle al algoritmo puede significar la diferencia entre la victoria y la derrota. Sin embargo, esta lógica puede, en última instancia, presentar un peligro aún mayor.

















