El desarrollador de inteligencia artificial Anthropic ha confirmado que está investigando un informe de que usuarios no autorizados obtuvieron acceso a su modelo Mythos, lo que alertó plantea riesgos de ciberseguridad.

La startup estadounidense hizo la declaración después de que Bloomberg informara el miércoles que un pequeño grupo de personas tuvo acceso al modelo, que no fue hecho público debido a su Capacidad para permitir ataques cibernéticos..

“Estamos investigando un informe que alega acceso no autorizado a Claude Mythos Preview a través de uno de nuestros entornos de proveedores externos”, dijo Anthropic.

Bloomberg dijo que un “puñado” de usuarios en un foro privado en línea obtuvo acceso a Mythos el mismo día que Anthropic dijo que se estaba implementando en un pequeño número de empresas, incluidas Apple y Goldman Sachs, con fines de prueba.

Informó que los usuarios no identificados llegaron a Mythos a través del acceso que uno de ellos tenía como empleado de un contratista de Anthropic y mediante el despliegue de métodos utilizados por investigadores de ciberseguridad.

El grupo no ha realizado advertencias de ciberseguridad sobre el modelo y está más interesado en “jugar” con la tecnología que en causar problemas, según Bloomberg, que corroboró las afirmaciones a través de capturas de pantalla y una demostración en vivo del modelo.

Sin embargo, la noticia de la posible violación alarmará a las autoridades que han expresado su preocupación sobre el potencial de Mythos para causar estragos y planteará preguntas sobre cómo tecnología potencialmente dañina puede mantenerse fuera de las manos equivocadas.

Kanishka Narayan, ministra de IA del Reino Unido, dijo que las empresas del Reino Unido “deberían preocuparse” por la capacidad del modelo para detectar fallas en los sistemas de TI, sobre las cuales los piratas informáticos podrían actuar.

El modelo ha sido examinado minuciosamente por la principal autoridad de seguridad del mundo para la tecnología, el Instituto de Seguridad de IA (AISI) del Reino Unido, que advirtió la semana pasada que Mythos era un “paso adelante” con respecto a los modelos anteriores en términos de la amenaza cibernética que planteaba.

AISI dijo que Mythos podría llevar a cabo ataques que requirieran múltiples acciones y descubrir debilidades en los sistemas de TI sin intervención humana. Dijo que estas tareas normalmente tomarían días a los profesionales humanos para completarlas.

Mythos fue el primer modelo de IA en completar con éxito una simulación de 32 pasos de un ciberataque creado por AISI, resolviendo el desafío en tres de sus 10 intentos.

Fuente