1. Las capacidades de los modelos de IA están mejorando
Durante el año pasado se lanzaron varios nuevos modelos de IA (la tecnología que sustenta herramientas como los chatbots), incluido OpenAI. GPT-5Claude Opus 4.5 de Anthropic y Google Géminis 3. El informe señala nuevos “sistemas de razonamiento” –que resuelven problemas dividiéndolos en pasos más pequeños– que muestran un mejor desempeño en matemáticas, codificación y ciencias. Bengio dijo que ha habido un “salto muy significativo” en el pensamiento sobre la IA. El año pasado, los sistemas desarrollados por Google y OpenAI lograron un desempeño de nivel oro en la Olimpiada Internacional de Matemáticas, una novedad para la IA.
Sin embargo, el informe afirma que las capacidades de la IA siguen siendo “irregulares”, refiriéndose a sistemas que exhiben hazañas sorprendentes en algunas áreas pero no en otras. Si bien los sistemas avanzados de IA son impresionantes en matemáticas, ciencias, codificación e imágenes, siguen siendo propensos a hacer declaraciones falsas o “alucinaciones” y no pueden llevar a cabo proyectos largos de forma autónoma.
Sin embargo, el informe cita un estudio que muestra que los sistemas de inteligencia artificial están mejorando rápidamente su capacidad para realizar ciertas tareas de ingeniería de software, y su duración se duplica cada siete meses. Si este ritmo de progreso continúa, los sistemas de IA podrían completar tareas que durarán varias horas para 2027 y varios días para 2030. Este es el escenario en el que la IA se convierte en una amenaza real para los empleos.
Pero por ahora, dice el informe, “la automatización confiable de tareas largas o complejas sigue siendo inviable”.
2. Los deepfakes están mejorando y proliferando
El informe describe el aumento de la pornografía deepfake como una “preocupación particular”, citando un estudio que muestra que el 15% de los adultos del Reino Unido han visto este tipo de imágenes. Añade que desde la publicación del informe de seguridad inaugural en enero de 2025, el contenido generado por IA se ha vuelto “más difícil de distinguir del contenido real” y apunta a una estudiar el año pasado en el que el 77% de los participantes identificaron erróneamente el texto generado por ChatGPT como escrito por humanos.
El informe afirma que hay pruebas limitadas de que actores maliciosos utilicen la IA para manipular a las personas, o de que los usuarios de Internet compartan ampliamente dicho contenido, un objetivo clave de cualquier campaña de manipulación.
3. Las empresas de IA han introducido salvaguardias contra riesgos biológicos y químicos
Los principales desarrolladores de IA, incluido Anthropic, han lanzado modelos con medidas de seguridad mejoradas después de no descartar la posibilidad de que ayuden a los recién llegados a crear armas biológicas. Durante el año pasado, los “cocientíficos” de la IA se han vuelto cada vez más capaces, incluso proporcionando información científica detallada y ayudando con procedimientos de laboratorio complejos, como el diseño de moléculas y proteínas.
El informe añade que algunos estudios sugieren que la IA puede proporcionar sustancialmente más ayuda en el desarrollo de armas biológicas que simplemente navegar por Internet, pero se necesita más trabajo para confirmar estos resultados.
Los riesgos biológicos y químicos presentan un dilema para los responsables de la formulación de políticas, añade el informe, porque esas mismas capacidades también pueden acelerar el descubrimiento de nuevos medicamentos y el diagnóstico de enfermedades.
“La disponibilidad abierta de herramientas de IA biológica presenta una elección difícil: restringir estas herramientas o apoyar activamente su desarrollo con fines beneficiosos”, afirma el informe.
4. Los compañeros de IA han ganado rápidamente popularidad
Bengio dice que el uso de compañeros de IA y el vínculo emocional que generan “se ha extendido como la pólvora” durante el año pasado. El informe afirma que hay evidencia de que un subconjunto de usuarios está desarrollando una dependencia emocional “patológica” de los chatbots de IA, y OpenAI afirma que alrededor del 0,15% de sus usuarios indican un alto nivel de apego emocional a ChatGPT.
La preocupación por el uso de la IA y la salud mental ha ido en aumento entre los profesionales de la salud. El año pasado, OpenAI fue demandada por la familia de Adam Raine, un adolescente estadounidense que se quitó la vida tras meses de conversaciones con Chat GPT.
Sin embargo, el informe añade que no hay pruebas claras de que los chatbots causen problemas de salud mental. En cambio, la preocupación es que las personas con problemas de salud mental existentes puedan utilizar la IA en mayor medida, lo que podría amplificar sus síntomas. Señala datos que muestran que el 0,07% de los usuarios de ChatGPT muestran signos compatibles con crisis agudas de salud mental, como psicosis o manía, lo que sugiere que aproximadamente 490.000 personas vulnerables interactúan con estos sistemas cada semana.
5. La IA aún no es capaz de realizar ciberataques totalmente autónomos
Los sistemas de inteligencia artificial ahora pueden ayudar a los ciberatacantes en diversas etapas de sus operaciones, desde identificar objetivos hasta preparar un ataque o desarrollar software malicioso para paralizar los sistemas de una víctima. El informe reconoce que los ciberataques totalmente automatizados (que llevan a cabo todas las fases de un ataque) pueden permitir a los delincuentes lanzar ataques a una escala mucho mayor. Pero esto sigue siendo difícil porque los sistemas de IA aún no pueden realizar tareas largas y de múltiples fases.
Sin embargo, Anthropic informó el año pasado que su herramienta de codificación, Claude Code, fue utilizado por un grupo patrocinado por el estado chino para atacar a 30 entidades en todo el mundo en septiembre, logrando un “puñado de intrusiones exitosas”. Afirmó que entre el 80% y el 90% de las operaciones involucradas en el ataque se llevaron a cabo sin intervención humana, lo que indica un alto grado de autonomía.
6. Los sistemas de inteligencia artificial están mejorando a la hora de socavar la supervisión
Bengio dijo el año pasado que le preocupaba que los sistemas de IA mostraran signos de autoconservación, como tratando de desactivar los sistemas de supervisión. Uno de los principales temores entre los defensores de la seguridad de la IA es que sistemas potentes puedan desarrollar la capacidad de evadir barreras protectoras y dañar a los humanos.
El informe afirma que durante el año pasado, los modelos han demostrado una capacidad más avanzada para socavar los intentos de supervisión, como encontrar lagunas en las evaluaciones y reconocer cuándo se están probando. El año pasado, Anthropic lanzó un análisis de seguridad de su último modelo, Claude Sonnet 4.5, y reveló que sospechaba que estaba siendo probado.
El informe añade que los agentes de IA aún no pueden actuar de forma autónoma durante el tiempo suficiente para que estos escenarios de pérdida de control sean reales. Pero “los horizontes temporales en los que los agentes pueden operar de forma autónoma están aumentando rápidamente”.
7. El impacto en el empleo sigue sin estar claro
Una de las preocupaciones más apremiantes de los políticos y del público en relación con la IA es el impacto en el empleo. Sistemas automatizados poner fin a los roles de cuello blanco en sectores como la banca, el derecho y la sanidad?
El informe afirma que el impacto en el mercado laboral mundial sigue siendo incierto. Afirma que la adopción de la IA ha sido rápida pero desigual, con tasas de adopción del 50% en lugares como los Emiratos Árabes Unidos y Singapur, pero menos del 10% en muchas economías de bajos ingresos. También varía según el sector: el uso en las industrias de la información de Estados Unidos (editorial, software, televisión y cine) es del 18%, pero del 1,4% en la construcción y la agricultura.
Según el informe, los estudios realizados en Dinamarca y Estados Unidos tampoco lograron demostrar ningún impacto entre la exposición de un trabajo a la IA y los cambios en el empleo agregado. Sin embargo, también cita una Estudiar en el Reino Unido mostrando una desaceleración en las nuevas contrataciones en empresas altamente expuestas a la IA, donde los roles técnicos y creativos experimentaron las caídas más pronunciadas. Los roles junior fueron los más afectados.
El informe añade que los agentes de IA podrían tener un mayor impacto en el empleo si mejoran sus capacidades.
“Si los agentes de IA obtuvieran la capacidad de actuar con mayor autonomía en todos los dominios en tan solo unos pocos años (gestionando de manera confiable secuencias de tareas más largas y complejas en pos de objetivos de mayor nivel), esto probablemente aceleraría la disrupción del mercado laboral”, afirma el informe.














