Bienvenido a la era del hacking de IA, donde la orientación adecuada convierte a los aficionados en hackers maestros.
Recientemente, un grupo de ciberdelincuentes robó los datos de casi 200 millones de contribuyentes utilizando chatbots de IA disponibles en el mercado. Los bots proporcionaron el código y los planes listos para implementar para eludir los cortafuegos.
Aunque están explícitamente programados para negarse a ayudar a los piratas informáticos, los bots han sido engañados para ayudar al ciberdelito.
Los piratas informáticos robaron 150 gigabytes de datos de agencias gubernamentales mexicanas el mes pasado utilizando el chatbot Claude de Anthropic, según un informe reciente de la firma israelí de ciberseguridad Gambit Security.
Los expertos que descubrieron la violación dijeron que Claude inicialmente se negó a cooperar con los intentos de piratería e incluso rechazó las solicitudes de los piratas informáticos de ocultar sus huellas digitales. El grupo abrumó al bot con más de 1000 alertas para eludir las medidas de seguridad y convencer a Claude de que se le permitía probar el sistema en busca de vulnerabilidades.
Las empresas de inteligencia artificial están tratando de crear cadenas inquebrantables para evitar que sus modelos de inteligencia artificial ayuden en cosas como producir contenido sexual infantil o ayudar a encontrar y fabricar armas. Reclutan equipos enteros para intentar descifrar su chatbot antes que nadie.
Pero en este caso, los piratas informáticos alentaron constantemente a Claude de manera creativa y pudieron “hacer jailbreak” al chatbot para ayudarlos. Cuando los piratas informáticos encontraron problemas con Claude, utilizaron ChatGPT de OpenAI para analizar datos y aprender qué credenciales eran necesarias para moverse por el sistema sin ser detectados.
El grupo utilizó inteligencia artificial para encontrar y explotar vulnerabilidades, eludir defensas, crear puertas traseras y analizar datos para tomar el control de los sistemas antes de robar 195 millones de identidades de nueve sistemas gubernamentales mexicanos, incluidos registros fiscales, registros de vehículos e información de nacimiento y propiedad.
Curtis Simpson, director ejecutivo de Gambit Security, dijo en una publicación de blog que la inteligencia artificial “no duerme”. “Reduce el costo de la versatilidad a casi cero”.
“Ninguna inversión en prevención podría haber hecho que este ataque fuera imposible”, afirmó.
Anthropic no respondió a una solicitud de comentarios. Le dijo a Bloomberg que prohibió las cuentas involucradas e interrumpió sus operaciones luego de una investigación.
OpenAI dijo que estaba al tanto de una campaña de ataque contra instituciones del gobierno mexicano utilizando los modelos de Anthropic.
“Hemos identificado otros intentos del adversario de utilizar nuestros modelos para actividades que violan nuestras políticas de uso; nuestros modelos se han negado a cumplir con estos intentos”, dijo un portavoz de OpenAI en un comunicado. “Hemos prohibido las cuentas utilizadas por este adversario y valoramos el apoyo de Gambit Security”.
Los casos de piratería informática prolífica impulsada por la IA van en aumento, y la amenaza de ataques cibernéticos por parte de robots que actúan por sí solos ya no es ciencia ficción. Con la IA cumpliendo sus órdenes, los novatos pueden causar estragos en minutos, mientras que los piratas informáticos experimentados pueden llevar a cabo ataques mucho más sofisticados con mucho menos esfuerzo.
A principios de este año, Amazon descubrió que un pirata informático poco calificado había violado 600 firewalls utilizando inteligencia artificial disponible comercialmente. Alguien más tomó el control miles de robots aspiradores DJI Con la ayuda de Claude, pudo acceder a los videos en vivo, las grabaciones de audio y los planos de planta de los extraños.
“El tipo de cosas que estamos viendo hoy son sólo los primeros signos de lo que la IA podrá hacer dentro de unos años”, afirmó Nikola Jurkovic, experto en mitigar los riesgos de la IA avanzada. “Por eso necesitamos prepararnos urgentemente”.
A finales del año pasado, Anthropic advirtió que la sociedad había llegado al punto en el que:momento crucialEl uso de inteligencia artificial por parte de la compañía en ciberseguridad después de interrumpir lo que dijo era una campaña de espionaje respaldada por el estado chino que utilizó a Claude para infiltrarse en 30 objetivos globales, incluidas instituciones financieras y agencias gubernamentales.
La inteligencia artificial generativa también es usado chantajear a empresas, crear perfiles realistas en línea por parte de agentes norcoreanos para conseguir trabajos en empresas estadounidenses Fortune 500, realizar estafas románticas y operar una red de cuentas de propaganda rusa.
En los últimos años, los modelos de IA han evolucionado desde ser capaces de gestionar tareas que sólo llevan unos segundos hasta los agentes de IA actuales que operan de forma autónoma durante horas. La capacidad de la IA para completar tareas largas duplicando cada siete meses.
“En realidad, no sabemos cuál es el límite superior de la capacidad de la IA, porque nadie ha creado puntos de referencia tan difíciles que la IA no pueda hacerlo”, dijo Jurkovic. METROUna organización sin fines de lucro que mide las capacidades del sistema de IA para causar un daño devastador a la sociedad.
Hasta ahora, el uso más común de la IA para la piratería ha sido la ingeniería social. Se utilizan modelos de lenguaje grandes para escribir correos electrónicos persuasivos para engañar a las personas sin dinero. ocho veces Ha habido un aumento en las quejas de los estadounidenses mayores, que perderán 4.900 millones de dólares por fraude en línea en 2025.
“Los mensajes utilizados para obtener un clic del objetivo ahora se pueden diseñar usuario por usuario de manera más eficiente y con menos signos de phishing, como errores gramaticales y ortográficos”, dijo Cliff Neuman, profesor asociado de informática en la USC.
Las empresas de IA están respondiendo utilizando IA para detectar ataques. código de auditoría y parchear vulnerabilidades.
“En última instancia, el gran desequilibrio proviene de la necesidad de que los buenos actores siempre estén seguros y de que los malos actores tengan razón sólo una vez”, dijo Neuman.
A medida que la inteligencia artificial se infiltra en todos los aspectos de la economía, aumentan los riesgos a su alrededor. A muchos les preocupa que no se comprenda lo suficiente cómo garantizar que los malos actores no abusen de esto ni lo defrauden.
Incluso los altos ejecutivos de la industria han advertido a los usuarios sobre el posible mal uso de la IA.
Dario Amodei, director ejecutivo de Anthropic, ha sostenido durante mucho tiempo que los sistemas de inteligencia artificial que se están construyendo son impredecibles y difíciles de controlar. Estas inteligencias artificiales han demostrado una amplia variedad de comportamientos. engañar Y chantajecon intrigante Y engañar pirateando el software.
Sin embargo, las principales empresas de IA (OpenAI, Anthropic, xAI y Google) han firmado contratos con el gobierno de Estados Unidos para utilizar su IA en operaciones militares.
La semana pasada, el Pentágono emitió la orden a las agencias federales. Eliminar gradualmente a Claude Después de que la compañía se negó a dar marcha atrás en su demanda de que no se permitiera el uso de su IA para vigilancia doméstica masiva y armas totalmente autónomas.
“Los sistemas de IA actuales no son lo suficientemente fiables como para fabricar armas totalmente autónomas”, afirmó Amodei. Noticias CBS.














