El lunes, antrópico presentó su acción contra el Departamento de Defensa por ser designado un riesgo para la cadena de suministro. Horas más tarde, casi 40 empleados de OpenAI y Google, incluido Jeff Dean, científico jefe de Google y líder de Gemini, presentó un escrito amicus curiae en apoyo de la demanda de Anthropicdetallando sus preocupaciones sobre la decisión de la administración Trump y los riesgos e implicaciones de la tecnología.
La noticia sigue a unas semanas dramáticas para Anthropic, en las que la administración Trump etiquetó a la empresa como un riesgo para la cadena de suministro (una designación típicamente reservada para empresas extranjeras que el gobierno considera un riesgo potencial para la seguridad nacional de alguna manera) después de que Anthropic se mantuvo firme en dos líneas rojas con respecto a los casos de uso aceptables para el uso militar de su tecnología: vigilancia doméstica masiva y armas totalmente autónomas (o sistemas de inteligencia artificial con el poder de matar con sin participación humana). Las negociaciones fracasaronseguido de insultos públicos y otras empresas de IA interviniendo para firmar contratos que permitan “cualquier uso legal” de su tecnología.
La designación de riesgo de la cadena de suministro no solo impide que Anthropic trabaje en contratos militares, sino que también incluye en la lista negra a otras empresas que utilizan productos Anthropic en su línea de trabajo para el Pentágono, obligándolas a desarraigar a Claude si quieren mantener sus lucrativos contratos. Sin embargo, como primer modelo aprobado para inteligencia clasificada, las herramientas de Anthropic ya están profundamente integradas en el trabajo del Pentágono, hasta el punto de que, pocas horas después de que el secretario de Defensa, Pete Hegseth, anunciara la designación, el ejército estadounidense supuestamente utilizó a Claude en la campaña que mató al líder de Irán, el ayatolá Ali Jamenei.
El escrito amicus curiae busca resaltar que la designación de riesgo de la cadena de suministro de Anthropic “es una represalia inadecuada que daña el interés público” y que las preocupaciones detrás de las líneas rojas de Anthropic “son reales y requieren una respuesta”. También destaca que vale la pena revisar las dos líneas rojas de Anthropic, afirmando que “la vigilancia nacional masiva impulsada por IA plantea riesgos profundos para la gobernanza democrática, incluso en manos responsables” y que “los sistemas de armas letales totalmente autónomos presentan riesgos que también deben abordarse”.
El grupo detrás del informe amicus curiae se describió a sí mismo como “ingenieros, investigadores, científicos y otros profesionales empleados en laboratorios fronterizos de inteligencia artificial de Estados Unidos”.
“Construimos, entrenamos y estudiamos sistemas de inteligencia artificial a gran escala que sirven a una amplia gama de usuarios e implementaciones, incluso en los dominios consiguientes de la seguridad nacional, la aplicación de la ley y las operaciones militares”, escribió el grupo. “Presentamos este documento no como portavoces de una sola empresa, sino a título individual como profesionales con conocimiento directo de lo que estos sistemas pueden y no pueden hacer, y de lo que está en juego cuando su implementación va más allá de los marcos legales y éticos diseñados para regirlos”.
Cuando se trata de vigilancia doméstica masiva, el grupo dijo que si bien los datos sobre los ciudadanos estadounidenses existen en todas partes en forma de cámaras de vigilancia, datos de geolocalización, publicaciones en redes sociales, transacciones financieras y más, “lo que aún no existe es la capa de IA que transforma este vasto y fragmentado panorama de datos en un aparato de vigilancia unificado en tiempo real”. En este momento, escribieron, estos flujos de datos están aislados, pero si se usara IA para vincularlos, podría combinar “datos de reconocimiento facial con historial de ubicación, registros de transacciones, gráficos sociales y patrones de comportamiento de cientos de millones de personas simultáneamente”.
Cuando se trata específicamente de armas letales autónomas, el grupo dijo que pueden no ser confiables en condiciones nuevas o poco claras que no se alinean con el entorno en el que fueron entrenadas, lo que significa que “no se puede confiar en que identifiquen objetivos con perfecta precisión y no pueden hacer las sutiles compensaciones contextuales entre lograr un objetivo y tener en cuenta los efectos secundarios que un humano podría causar”. Además, escribió el grupo, el potencial de alucinación de los sistemas de armas letales autónomos significa que es importante que los humanos participen en el proceso de toma de decisiones “antes de que se dispare una munición letal contra un objetivo humano”, especialmente porque la cadena de razonamiento del sistema a menudo no está disponible para los operadores y no es clara ni siquiera para los creadores del sistema.
El grupo detrás del informe amicus curiae escribió: “Somos diversos en nuestras políticas y filosofías, pero estamos unidos en la convicción de que los actuales sistemas fronterizos de inteligencia artificial presentan riesgos cuando se despliegan para permitir la vigilancia nacional masiva o la operación de sistemas autónomos de armas letales sin supervisión humana, y que estos riesgos requieren algún tipo de barreras protectoras, ya sea a través de salvaguardias técnicas o restricciones de uso”.
















