pasé el últimos días pidiendo a las empresas de IA que me convenzan de que las perspectivas de Seguridad de la IA no han disminuido. Hace apenas unos años, parecía que había un acuerdo universal entre empresas, legisladoresy al público en general que una regulación y supervisión serias de la IA no sólo eran necesarias sino inevitables. Se ha especulado sobre la posibilidad de que los organismos internacionales establezcan reglas para garantizar que la IA sea tratada más seriamente que otras tecnologías emergentes, y esto al menos podría crear obstáculos para sus implementaciones más peligrosas. Las empresas han prometido priorizar la seguridad sobre la competencia y las ganancias. Aunque los saboteadores seguían creando escenarios distópicos, se estaba formando un consenso global para limitar los riesgos de la IA y al mismo tiempo cosechar sus beneficios.

Los acontecimientos de la semana pasada asestaron un duro golpe a estas esperanzas, empezando por la amarga rivalidad entre el Pentágono y Antrópica. Todas las partes están de acuerdo en que el contrato existente entre los dos solía especificar, ante la insistencia de Anthropic, que el Departamento de Defensa (que ahora se refiere a sí mismo como Departamento de Guerra) no utilizará los modelos Claude AI de Anthropic para armas autónomas o vigilancia masiva de estadounidenses. Ahora el Pentágono quiere borrar esas líneas rojas, y la negativa de Anthropic no sólo resultó en la finalización de su contrato, sino que también llevó al secretario de Defensa, Pete Hegseth, a declarar la empresa un riesgo para la cadena de suministro, una designación que impide que las agencias gubernamentales hagan negocios con Anthropic. Sin entrar en detalles sobre las disposiciones contractuales y la dinámica personal entre Hegseth y el director ejecutivo de Anthropic, Dario Amodei, la conclusión parece ser que el ejército está decidido a resistir cualquier limitación sobre cómo utiliza la IA, al menos dentro de los límites de la legalidad, según su propia definición.

La gran pregunta parece ser cómo llegamos al punto en que el lanzamiento de robots asesinos, drones y bombas que identifican y eliminan objetivos humanos terminó en la conversación como algo que el ejército estadounidense ni siquiera consideraría. ¿Me he perdido el debate internacional sobre las ventajas de crear enjambres de letales drones autónomos que exploren zonas de guerra, patrullen fronteras o vigilen a los narcotraficantes? Hegseth y sus partidarios se quejan de lo absurdo de que las empresas privadas limiten lo que los militares pueden hacer. Me parece más loco que sea necesaria una empresa solitaria que se arriesgue a sanciones existenciales para detener una tecnología potencialmente incontrolable. En cualquier caso, la falta de acuerdos internacionales significa que todas las milicias avanzadas deben utilizar la IA en todas sus formas, simplemente para mantenerse al día con sus adversarios. En este momento, una carrera armamentista de IA parece inevitable.

Los riesgos van mucho más allá de lo militar. Eclipsada por el drama del Pentágono quedó una anuncio perturbador Antrópico publicado el 24 de febrero. La compañía dijo que estaba realizando cambios en su sistema para mitigar los riesgos catastróficos de la IA, llamada Política de Escalamiento Responsable. Fue una política fundacional clave de Anthropic, en la que la compañía prometió vincular el cronograma de lanzamiento del modelo de IA a sus procedimientos de seguridad. La política establecía que los modelos no deberían lanzarse sin barandillas que impidieran los peores usos. Funcionó como un incentivo interno para garantizar que no se descuidara la seguridad en la prisa por lanzar tecnologías avanzadas. Aún más importante, Anthropic esperaba que la adopción de la política inspirara o avergonzara a otras empresas para que hicieran lo mismo. A este proceso lo llamó “carrera hacia la cima.” La expectativa era que la incorporación de tales principios ayudaría a influir en las regulaciones de toda la industria que establecen límites al caos que la IA podría causar.

Al principio, este enfoque parecía prometedor. DeepMind y OpenAI han adoptado aspectos del marco de Anthropic. Más recientemente, a medida que los dólares de inversión se dispararon, aumentó la competencia entre los laboratorios de IA y la perspectiva de una regulación federal comenzó a parecer más remota, Anthropic admitió que su Política de Escalamiento Responsable se había quedado corta. Los límites no crearon el consenso sobre los riesgos de la IA que se esperaba. Como señaló la compañía en una publicación de blog: “El entorno político se ha desplazado hacia la priorización de la competitividad de la IA y el crecimiento económico, mientras que las discusiones orientadas a la seguridad aún no han ganado un impulso significativo a nivel federal”.

Mientras tanto, la competencia entre las empresas de IA se ha vuelto más feroz. En lugar de una carrera hacia la cima, la rivalidad de la IA se parece más a una versión simple de King of the Mountain. Cuando el Pentágono prohibió Anthropic, OpenAI se apresuró a llenar el vacío con su propio contrato con el Departamento de Defensa. El director ejecutivo de OpenAI, Sam Altman, insistió en que llegó a un acuerdo apresurado con el Pentágono para aliviar la presión sobre Anthropic, pero Amodei no aceptó nada de eso. “Sam está tratando de socavar nuestra posición mientras parece apoyarla”, dijo Amodei en un comunicado. nota interna. “Está tratando de hacer más posible que el administrador nos castigue socavando nuestro apoyo público”. (me encantó luego se disculpo por el tono del mensaje.)

Fuente