Olvídate de la ciencia ficción. Ha llegado la era de la inteligencia artificial en la guerra.
Israel utilizó sistemas de inteligencia artificial Gaza Marcar objetivos potenciales y ayudar a priorizar las operaciones.
Según se informa, el ejército de los Estados Unidos utiliza el modelo de Anthropic, Claude. Operación para secuestrar a Nicolás Maduro de Venezuela.
E incluso después Antropik tuvo problemas con la administración estadounidense exactamente como inteligencia artificial Aunque está destinado a ser utilizado en combate, el ejército estadounidense todavía parece utilizar a Claude en sus ataques. iraní.
Última situación en Irán: Trump criticó a Starmer por la actitud de Gran Bretaña
Los expertos dicen que es muy probable que los misiles que hoy sobrevuelan Teherán sean el objetivo de sistemas respaldados por inteligencia artificial.
“La inteligencia artificial está cambiando la naturaleza de la guerra moderna en el siglo XXI. Es difícil exagerar el impacto que tiene y tendrá”, dice Craig Jones, profesor titular de geografía política en la Universidad de Newcastle.
“Este es un escenario potencialmente aterrador”.
Terrible o no, parece que no hay vuelta atrás. Si se quiere comprender la importancia que el ejército estadounidense concede a la inteligencia artificial, un buen punto de partida es un memorando enviado a principios de este año por el secretario de Defensa, Pete Hegseth, que se autodenomina Secretario de Guerra, a todos los altos líderes militares.
“Estoy ordenando al Departamento de Guerra que acelere el dominio de la IA militar de Estados Unidos convirtiéndose en una fuerza de combate que priorice la IA en todos los componentes, de adelante hacia atrás”, escribió Hegseth.
Esto no es un experimento, es una orden; Adoptar IA rápidamente y a escala.
O, como dice Hegseth: “La velocidad gana”.
Sin embargo, el escenario en cuestión no es el primero que me viene a la mente.
Sí, la autonomía está aumentando en algunas zonas. Adentro ucranioPor ejemplo, hay drones que pueden continuar la misión incluso después de perder la comunicación con un operador humano.
Sin embargo, no estamos en la etapa en la que robots asesinos autónomos deambulen por el campo de batalla.
“Aún no estamos en la era Terminator”, dice David Leslie, profesor de ética, tecnología y sociedad en la Universidad Queen Mary de Londres.
Los sistemas integrados con inteligencia artificial, conocidos en la jerga militar como “sistemas de apoyo a la decisión”, son asesores que señalan objetivos, clasifican amenazas y recomiendan prioridades.
Los sistemas de inteligencia artificial pueden reconstruir imágenes satelitales, comunicaciones interceptadas, datos logísticos y feeds de redes sociales (miles, incluso cientos de miles de entradas) y patrones de superficie mucho más rápido que cualquier equipo humano.
La idea es que ayudarán a eliminar la niebla de la guerra, permitiendo a los comandantes concentrar los recursos donde más les importa, y al mismo tiempo ser más precisos que los soldados humanos potencialmente cansados, abrumados y estresados.
El Dr. Jones dice que esto significa que no es sólo una herramienta, es una nueva forma de tomar decisiones.
“La IA se parece más a una infraestructura, como vemos en nuestras propias vidas”, afirma. “Está integrado en el sistema”.
“Tenemos la capacidad de recopilar vigilancia, lo que hemos hecho durante varios años.
“Pero ahora la IA proporciona la estabilidad para actuar en consecuencia, matar al líder de Irán, eliminar enemigos y adversarios serios, y encontrarlos de maneras inesperadas donde no habían estado antes”.
‘Una herramienta muy convincente’
El profesor Leslie está de acuerdo en que los nuevos sistemas son extremadamente capaces desde el punto de vista militar.
“Lo que está impulsando este aumento es la carrera por la velocidad”, afirma. “Acelerar los ciclos de decisión es lo que aporta la ventaja militar de la letalidad”.
Una característica importante de los sistemas de apoyo a la toma de decisiones es que la inteligencia artificial no pulsa botones. Una persona hace esto. Este ha sido el principal sustento de los debates sobre la inteligencia artificial militar. Siempre hay una “persona al tanto”.
Como Abierto AIempresa que fabrica ChatGPTDespués de anunciar una asociación para suministrar IA al Pentágono, afirmó: “Al incorporar a los investigadores de seguridad y cumplimiento, exoneraremos a los ingenieros de OpenAI desplegados que ayudan al gobierno”.
OpenAI también enfatizó que había acordado con el Pentágono que su tecnología no se utilizaría para cruzar tres “líneas rojas”: vigilancia interna masiva, sistemas de armas autónomos directos y decisiones automatizadas de alto riesgo.
Pero incluso si hay un humano involucrado, queda una pregunta.
Leer más:
Inteligencia artificial dispuesta a “volverse nuclear” en juegos de guerra, según un estudio
Claude Opus 4.6: Esta IA pasó la ‘prueba de la máquina expendedora’
Cuando se lucha en una guerra, ¿puede un ser humano realmente controlar cada decisión de una IA? ¿Qué significa realmente la “supervisión humana” cuando el tiempo está comprimido y la información está incompleta?
“La gente está técnicamente al tanto”, dice el Dr. Jones.
“Creo que eso no significa que estén lo suficientemente informados como para tener un poder efectivo de toma de decisiones y controlar exactamente lo que sucede. La IA es una herramienta muy convincente para que los humanos tomen decisiones”.
O como dice el profesor Leslie: “Realmente nos enfrentamos a un peligro potencialmente enorme: que debido a la velocidad, no se cuenta con una participación humana activa y crítica para evaluar las recomendaciones presentadas por estos sistemas”.
Y luego está el problema de la propia falibilidad de la IA.
Leer más:
El Primer Ministro confirma que el Reino Unido desplegará el HMS Dragon en Chipre
Preguntas y respuestas sobre Irán: ¿Por qué podría Trump intentar declarar una victoria rápida?
Las pruebas realizadas por Sky News han revelado que ni Claude ni ChatGPT pueden saber cuántas patas tiene un pollo si no tiene el aspecto esperado.
Es más, la IA insistió en que era cierto, aunque claramente estaba equivocado.
El ejemplo está tomado de un artículo que muestra docenas de ejemplos de fallas similares. “Este no es un ejemplo único de patas de animales”, dijo el autor principal, Anh Vo.
“El problema es general en todos los tipos de datos y tareas”, añadió Vo.
Esto se debe a que la IA no ve el mundo en términos verdaderamente humanos; Estiman lo que es más probable basándose en datos pasados.
A menudo, este tipo de razonamiento estadístico resulta sorprendentemente eficaz. El mundo es lo suficientemente predecible como para que las probabilidades funcionen.
Sin embargo, algunos entornos son inherentemente impredecibles y riesgosos.
Probamos los límites de esta tecnología en las condiciones más brutales imaginables.













