antrópico el dijo El jueves, “no puedo en conciencia” cumplir con una demanda del Pentágono de eliminar las precauciones de seguridad de su modelo de inteligencia artificial y otorgar al ejército estadounidense acceso ilimitado a sus capacidades de inteligencia artificial.

El Departamento de Defensa amenazó con cancelar un contrato de 200 millones de dólares y considerar a Anthropic como un “riesgo para la cadena de suministro”, una designación con graves implicaciones financieras, si la empresa no cumplía con el pedido antes del viernes.

El jefe ejecutivo Dario Amodei dijo en un comunicado que las amenazas del Secretario de Defensa, Pete Hegsethno cambiaría la posición de la empresa y que esperaba que Hegseth lo “reconsiderara”.

“Nuestra fuerte preferencia es continuar sirviendo al Departamento y a nuestros combatientes, con ambas salvaguardas solicitadas implementadas”, dijo. “Seguimos dispuestos a continuar nuestro trabajo para apoyar la seguridad nacional de Estados Unidos”.

En el centro del enfrentamiento entre el Departamento de Defensa y Anthropic está el desacuerdo sobre cómo la empresa de IA permitirá que se utilice su producto, Claude. El Pentágono exigió que Anthropic apaga las rejas de seguridad y permitir cualquier uso legal de Claude, mientras que Anthropic se opuso a permitir que Claude sea utilizado para vigilancia doméstica masiva o en sistemas de armas autónomos que puedan matar personas sin intervención humana.

Después de meses de disputa y presión del gobierno, Hegseth supuestamente dio Esperé hasta el viernes por la noche para aceptar las demandas del Pentágono o enfrentar acciones punitivas.

La subvención de Anthropic fue vista como una prueba de alto perfil de su afirmación de ser la más consciente de la seguridad de las principales empresas de IA, así como de si alguna parte de la industria de la IA resistiría los deseos del gobierno de utilizar la tecnología para fines controvertidos y potencialmente letales.

En su declaración, Amodei dijo que el uso de la IA para armas autónomas y vigilancia doméstica masiva está “simplemente fuera de los límites de lo que la tecnología actual puede hacer de manera segura y confiable”.

El Departamento de Defensa ha otorgado una serie de acuerdos lucrativos a empresas de tecnología en los últimos años para construir o integrar tecnología de inteligencia artificial en los sistemas militares estadounidenses. En julio del año pasado, Anthropic era una de varias grandes empresas de tecnología, incluidas Google y OpenAI, la recibir contratos por valor de hasta 200 millones de dólares con el Departamento de Defensa. Lo que distingue a Anthropic, e intensificó su conflicto con el Pentágono, es que hasta esta semana era el único modelo de IA aprobado para su uso en los sistemas clasificados del ejército. (xAI de Elon Musk llegó a un acuerdo a principios de esta semana para ser utilizado también en sistemas clasificados.)

La tecnología de Anthropic ya habría Se ha utilizado para aplicaciones militares.incluida la captura por parte de Estados Unidos del líder venezolano Nicolás Maduro el mes pasado, lo que pone de relieve el creciente uso de la IA en los conflictos. El crecimiento de la tecnología de armas autónomas, como los drones que pueden llevar a cabo operaciones incluso después de que se haya cortado su conexión con un operador humano, también ha intensificado las preocupaciones de larga data sobre cómo se utilizará la IA en situaciones de vida o muerte.

Anthropic y Amodei han sido durante mucho tiempo algunos de los defensores más destacados de la regulación y las precauciones de seguridad en el desarrollo de la IA, incluso cuando llegaron a acuerdos con el ejército y esta semana suavizaron una política central No lance nuevos modelos de IA sin antes garantizar su seguridad. Los llamados de Amodei a la regulación, y historia de la oposición política para Donald Trump, contradecían las promesas de Hegseth de eliminar el “despertar” de los militares y aplicar políticas militares agresivas.

Si Hegseth cumple su amenaza de categorizar a Anthropic como un riesgo para la cadena de suministro, sería un duro golpe para la empresa de inteligencia artificial. La designación, que suele estar dirigida a adversarios extranjeros, prohibiría a otros proveedores hacer negocios con el país. ejército estadounidense el uso de productos antrópicos.

Fuente