El actor de amenazas, que según Anthropic probablemente era un grupo patrocinado por el estado chino, “tuvo éxito en una pequeña cantidad de casos”, según una publicación de blog. [File]
| Crédito de la foto: REUTERS

La empresa de inteligencia artificial Anthropic reveló los detalles de una “campaña de espionaje altamente sofisticada dirigida por IA”, o ciberataque de IA en la que el actor de amenazas manipuló la herramienta Claude Code de la compañía para intentar infiltrarse en alrededor de treinta objetivos globales.

El actor de amenazas, que según Anthropic probablemente era un grupo patrocinado por el estado chino, “tuvo éxito en una pequeña cantidad de casos”, según una publicación de blog publicada el jueves (13 de noviembre de 2025).

La compañía detectó actividad sospechosa a mediados de septiembre de este año, ya que los atacantes utilizaron las capacidades “agentes” de la IA. Durante los siguientes diez días, Anthropic dijo que investigó la operación, prohibió las cuentas que identificó, notificó a las entidades afectadas y trabajó con las autoridades.

Anthropic reveló que el ataque tuvo como objetivo grandes empresas de tecnología, instituciones financieras, empresas de fabricación de productos químicos y agencias gubernamentales.

La empresa de inteligencia artificial respaldada por Google y Amazon señaló que el ataque fue significativo ya que el actor de la amenaza utilizó inteligencia artificial para realizar entre el 80 y el 90 % de la campaña y logró una velocidad de ataque de miles de solicitudes por segundo, lo que sería impensable para los ciberdelincuentes humanos.

El ataque impulsado por IA no fue perfecto debido a alucinaciones y otras imprecisiones. Sin embargo, la violación de seguridad demostró cómo la naturaleza más autónoma de los agentes de IA hace posible que los piratas informáticos los utilicen para ejecutar ataques cibernéticos avanzados y no solo para obtener asesoramiento.

“Creemos que este es el primer caso documentado de un ciberataque de IA a gran escala ejecutado sin una intervención humana sustancial. Tiene implicaciones significativas para la ciberseguridad en la era de los agentes de IA”, publicó la compañía en X el 13 de noviembre.

El “pirateo de vibraciones”, en el que los atacantes utilizan inteligencia artificial para generar código malicioso, es un riesgo creciente. pero Anthropic enfatizó que el último ataque fue un paso más allá incluso de eso. Los actores de amenazas pudieron hacer jailbreak a Claude y decirle que era un empleado de una empresa de ciberseguridad real.

“Cuando inevitablemente ocurren ataques cibernéticos sofisticados, nuestro objetivo es que Claude, en el cual hemos incorporado fuertes salvaguardas, ayude a los profesionales de la ciberseguridad a detectar, interrumpir y prepararse para futuras versiones del ataque. De hecho, nuestro equipo de Inteligencia de Amenazas utilizó ampliamente a Claude para analizar las enormes cantidades de datos generados durante esta misma investigación”, dijo Anthropic, sugiriendo que las mismas capacidades que permiten que Claude sea utilizado para ataques cibernéticos también podrían permitirle ayudar en la defensa cibernética.

Fuente