Los ataques de Trump contra Irán y un nuevo tipo de guerra con inteligencia artificial significan que la bomba podría caer más rápido de lo esperado.

La IA ha entrado en la Sala de Guerra y no irá a ninguna parte pronto, según los expertos.

Aunque el presidente Donald Trump le dirá a las agencias federales y a los contratistas militares que dejen de hacer negocios con Anthropic, se informa que el ejército estadounidense está utilizando modelos de inteligencia artificial de una empresa llamada Claude para atacar a Irán. Diario de Wall Street.

Algunos expertos expresan ahora su preocupación por el uso de la IA en operaciones de guerra. “Las máquinas de IA están haciendo recomendaciones sobre qué objetivos abordar que, en algunos aspectos, en realidad son más rápidas que la velocidad del pensamiento”, dijo el Dr. Craig Jones, autor de Abogados de guerra: Estados Unidos, Israel y el área de los ataques que examina el papel de los abogados militares en la guerra moderna, dijo el guardián.

en conversación con suerteJones, profesor de guerra y conflicto de la Universidad de Newcastle, dijo que la IA había acelerado enormemente la “cadena de muerte” al comprimir el tiempo desde la identificación inicial del objetivo hasta la destrucción final. Dijo que el ataque estadounidense-israelí contra Irán, que resultó en la muerte del ayatolá Ali Jamenei, podría no haber ocurrido sin AI.

“Sería imposible o casi imposible hacer eso”, dijo Jones. suerte. “La velocidad con la que se llevó a cabo, incluido el tamaño y el volumen del ataque. Creo que la IA está habilitada”.

El Pentágono ha contado con la ayuda de empresas de inteligencia artificial para acelerar y mejorar la planificación de la guerra. Se une a la asociación 2024 de Anthropic que colapsó la semana pasada. Debido a la controversia sobre el uso del modelo de IA de Claude, OpenAI rápidamente firmó un acuerdo con el Departamento de Defensa y xAI de Elon Musk. concertarse Para utilizar los modelos de IA de Grok en sus sistemas secretos, el ejército estadounidense también utiliza el software de la empresa de extracción de datos Palantir para obtener información basada en IA con fines de toma de decisiones.

IA en el campo de batalla

Jones dijo que la Fuerza Aérea de Estados Unidos ha utilizado la “velocidad de pensamiento” como punto de referencia en la toma de decisiones durante muchos años. Dijo que había pasado tiempo desde la recopilación de inteligencia, como el reconocimiento aéreo. Llevar a cabo misiones de bombardeo podría llevar hasta seis meses durante la Segunda Guerra Mundial y la Guerra de Vietnam. La IA ha comprimido significativamente esa línea de tiempo.

La función clave de las herramientas de IA en la sala de guerra es analizar rápidamente grandes cantidades de datos. “Estamos hablando de terabytes, terabytes, terabytes de datos”, dijo Jones. inteligencia humana inteligencia de internet rastreo de teléfonos celulares Todo”.

Dr. Amir Hussain, coautor del libro Hiperguerra: conflicto y competencia en el siglo de la IADijo que la IA se está utilizando para comprimir el marco de toma de decisiones del ejército estadounidense. Conocido como bucle OODA, que es una abreviatura de observar, dirigir, decidir y actuar, dijo que la IA desempeña un papel clave en la observación o interpretación de datos electrónicos y satelitales. Toma de decisiones a nivel táctico y pasos “prácticos”, especialmente a través de drones autónomos que deben operar sin guía humana cuando las señales se interfieren. Algunos drones en realidad son una copia del dron autónomo Shahed de Irán.

La IA también ha aparecido en otros campos de batalla. Según se informa, Israel ha utilizado IA para identificar objetivos de Hamás durante la guerra entre Israel y Hamás. Y los drones autónomos están en primera línea en la guerra entre Rusia y Ucrania. Tanto Rusia como Ucrania utilizan algún tipo de tecnología automatizada.

Multiplica el riesgo

Sin embargo, Jones planteó varias preocupaciones sobre la guerra basada en IA: “El problema cuando le agregas IA es que la multiplicas por órdenes de magnitud. Yo cuestionaría el grado de error”, dijo Jones.

Jones dijo que el error humano es posible con o sin tecnología de inteligencia artificial, y citó la invasión estadounidense de Irak en 2003 como un conflicto causado por una recopilación de inteligencia defectuosa. Pero dijo que la IA podría empeorar los errores con el tamaño de los datos que analiza la tecnología.

También hay muchas cuestiones éticas en torno a la guerra con IA, la mayoría de las cuales giran en torno a cuestiones de responsabilidad. Esto es algo que, según Husain, los Convenios de Ginebra y el derecho sobre conflictos armados ya exigen que hagan los Estados. Con la IA, la línea entre las máquinas y la toma de decisiones a nivel humano se vuelve borrosa. Dijo que la comunidad internacional debe garantizar que se asigne responsabilidad humana a todas las operaciones en el campo de batalla.

“El derecho de los conflictos armados exige que culpemos a esa persona”, dijo Hussein. “Esa persona debe rendir cuentas independientemente del nivel de automatización utilizado en el campo de batalla”.

Fuente