Imagen utilizada únicamente con fines de representación. | Crédito de la foto: Reuters

La historia hasta ahora: El Departamento de Defensa de EE.UU. (llamado Departamento de Guerra bajo la segunda administración Trump) se metió en una pelea pública con la empresa de inteligencia artificial Anthropic, que fabrica el producto Claude AI. El Departamento de Defensa tiene amenazó con designarlo Antrópico un “riesgo en la cadena de suministro”, que disuade a una amplia variedad de empresas que trabajan con el gobierno de EE. UU. de patrocinando productos antrópicos. OpenAI, el fabricante de ChatGPT, intervino más tarde y consiguió un acuerdo que, según dijo, no era radicalmente diferente de lo que Antropica quería.

¿Qué es Claudio?

Claude es un chatbot de IA que ayuda a organizaciones y usuarios individuales a crear y modificar código. Su producto Claude Code ha sido extraordinariamente bien recibido debido a sus capacidades. Claude Code se encuentra entre los pocos productos de IA que se ejecuta con modelos de lenguaje grande (LLM) extremadamente potentes y al mismo tiempo admite la creación y edición de herramientas en el dispositivo, ya que tiene acceso a una variedad de bibliotecas de software con las que trabajar.

El producto es muy atractivo para el sistema de defensa porque puede interactuar con armas y sistemas de defensa de alta tecnología. El reclutamiento de programadores para estos sistemas tiende a ser lento, ya que cualquier sistema de armas crítico está protegido por múltiples capas de secreto, lo que requiere autorizaciones de seguridad que pueden llevar mucho tiempo.

El Código Claude ha sido una propuesta atractiva para el Departamento de Defensa, ya que probablemente les permita iterar rápidamente programas que aprovechen su tecnología. Aunque Claude Code no realiza tareas de programación a la perfección todo el tiempo, lo hace lo suficientemente bien como para que muchos plazos de desarrollo se hayan reducido en organizaciones que lo han implementado ampliamente, especialmente entre los empleados que ya son desarrolladores de software experimentados.

¿Por qué Antropica entró en conflicto con el Departamento de Defensa?

Anthropic se integró al Departamento de Defensa como parte de un contrato de 200 millones de dólares en junio pasado que permitió al gobierno de EE. UU. utilizar los servicios de Claude desde una infraestructura dedicada alojada en Amazon Web Services.

Los problemas entre la empresa y el Departamento de Defensa comenzaron el 9 de enero, cuando el secretario de Defensa, Pete Hegseth, publicó un memorando titulado “Acelerar el dominio de la IA militar de Estados Unidos”, en el que pedía la eliminación de “bloqueadores del intercambio de datos, autorizaciones para operar (ATO), pruebas, evaluación y certificación, contratación, contratación y gestión de talentos, y otras políticas que inhiben la experimentación y el despliegue rápidos”.

Anthropic tiene una “constitución” muy publicitada para Claude que desalienta el modelo de apoyar la vigilancia generalizada y permitir armamento totalmente autónomo. Dario Amodei, cofundador de la compañía, insistió en un lenguaje fuerte en el acuerdo entre el Departamento de Defensa y Anthropic para incluir protecciones contra la vigilancia interna de los residentes estadounidenses y permitir armamento totalmente autónomo.

La compañía tenía hasta el viernes pasado para ceder y permitir al Departamento de Defensa un acceso completamente ilimitado a sus modelos. Él se negó y dijo en una publicación de blog que ayudaría al Departamento de Defensa en la transición a un nuevo proveedor.

El Departamento de Defensa procedió a clasificar a Anthropic como un riesgo para la cadena de suministro, una designación que normalmente se aplica a empresas que tienen prácticas tan dudosas que sus productos podrían proporcionar a adversarios extranjeros una puerta trasera a sistemas críticos. Si bien esta designación solo prohíbe a los proveedores y socios del Departamento de Defensa utilizar Claude en sistemas dedicados al Departamento de Defensa, existe la preocupación de que los ejecutivos puedan pecar de cautelosos y eliminar los vínculos con Claude por completo.

¿Qué es el acuerdo OpenAI? ¿En qué se diferencia?

OpenAI negoció un acuerdo con el Departamento de Defensa en virtud del cual el primero afirma que tiene las mismas protecciones contra la vigilancia y el armamento totalmente autónomo que buscaba Anthropic. No está del todo claro por qué OpenAI pudo cerrar este trato mientras Anthropic fue expulsado. “El Departamento de Guerra puede utilizar el sistema de IA para todos los fines legales de acuerdo con la ley aplicable, los requisitos operativos y los protocolos de seguridad y supervisión bien establecidos”, se lee en una parte del acuerdo hecho público por OpenAI.

“El sistema de IA no se utilizará para dirigir de forma independiente armas autónomas en ningún caso en el que la ley, la regulación o la política del Departamento requieran control humano, ni se utilizará para tomar otras decisiones de alto riesgo que requieran la aprobación de un tomador de decisiones humano bajo las mismas autoridades”. Según se informa, Anthropic buscó una mayor claridad en el lenguaje legal del acuerdo, que prohibiría los casos de uso descritos anteriormente, incluso si estuvieran legalizados.

“Creemos que nuestras líneas rojas son más aplicables aquí porque la implementación se limita solo a la nube (no en el borde), mantiene nuestra pila de seguridad funcionando de la manera que mejor creemos y mantiene informado al personal autorizado de OpenAI”, dijo OpenAI en un comunicado. “No sabemos por qué Anthropic no pudo llegar a este acuerdo y esperamos que ellos y más laboratorios lo consideren”.

Fuente