La IA de hoy podría hacer pandemias 5 veces más probable

Los desarrollos recientes en IA podrían significar que las pandemias causadas por humanos son cinco veces más probables que hace solo un año, según un estudiar de las predicciones de los principales expertos compartidas exclusivamente con el tiempo.
Los datos se hacen eco de las preocupaciones planteadas por las compañías de IA OpenAi y Anthrope en los últimos meses, los cuales han advertido que las herramientas de IA de hoy están alcanzando la capacidad de ayudar de manera significativa a los malos actores que intentan crear biowapons.
Leer más: EXCLUSIVO: El nuevo modelo de Claude desencadena salvaguardas bio-riesgo en Anthrope
Durante mucho tiempo ha sido posible que los biólogos modifiquen virus utilizando tecnología de laboratorio. El nuevo desarrollo es la capacidad de los chatbots, como ChatGpt o Claude, para dar consejos precisos de solución de problemas a los biólogos aficionados que intentan crear una biela mortal en un laboratorio. Los expertos en seguridad han visto durante mucho tiempo la dificultad de este proceso de solución de problemas como un cuello de botella significativo sobre la capacidad de los grupos terroristas para crear una biowapon, dice Seth Donoughe, coautora del estudio. Ahora, dice, gracias a la IA, la experiencia necesaria para causar intencionalmente una nueva pandemia “podría ser accesible para muchas, muchas más personas”.
Entre diciembre de 2024 y febrero de 2025, el Instituto de Investigación de Pronóstico solicitó a 46 expertos en bioseguridad y 22 “superforforecasters” (individuos con una alta tasa de éxito al predecir eventos futuros) que estimaran el riesgo de una pandemia causada por humanos. El encuestado promedio de la encuesta predijo que el riesgo de que eso ocurra en un año determinado fue del 0.3%.
De manera crucial, los topógrafos luego hicieron otra pregunta: ¿cuánto aumentaría ese riesgo si las herramientas de IA pudieran igualar el rendimiento de un equipo de expertos en una prueba difícil de solución de problemas de virología? Si AI pudiera hacer eso, dijo el experto promedio, entonces el riesgo anual saltaría a 1.5%, un aumento de cinco veces.
Lo que los pronosticadores no sabían era que Donoughe, un científico investigador de la organización sin fines de lucro de Pandemic Prevention, estaba probando sistemas de IA para esa misma capacidad. En abril, el equipo de Donoughe reveló los resultados de esas pruebas: los principales sistemas de IA de hoy lata Superominar a los virólogos a nivel de doctorado en una prueba de solución de problemas difíciles.
Leer más: EXCLUSIVO: AI Outsmarts Virus Experts in the Lab, criando miedos biohazard
En otras palabras, la IA ahora puede hacer lo que los pronosticadores advirtieron aumentarían el riesgo de una pandemia causada por humanos. (El Instituto de Investigación de Previsión planea volver a surgir a los mismos expertos en el futuro para rastrear si su visión de los riesgos ha aumentado como lo harían, pero dijo que esta investigación tardaría meses en completarse).
Sin duda, hay un par de razones para ser escépticas de los resultados. El pronóstico es una ciencia inexacta, y es especialmente difícil predecir con precisión la probabilidad de eventos muy raros. Los pronosticadores en el estudio también revelaron una falta de comprensión de la tasa de progreso de la IA. (Por ejemplo, cuando se le preguntó, la mayoría dijo que no esperaban que AI superara el rendimiento humano en la prueba de Virología hasta después de 2030, mientras que la prueba de Donoughe mostró que la barra ya se había cumplido). Pero incluso si los números en sí mismos se toman con una pizca de sal, los autores del documento argumentan, los resultados como un punto aún en una dirección siniestra. “Parece que las capacidades de IA a corto plazo podrían aumentar significativamente el riesgo de una epidemia causada por humanos”, dice Josh Rosenberg, CEO del Instituto de Investigación de Previsión.
El estudio también identificó formas de reducir los riesgos de biowapon planteados por la IA. Esas mitigaciones en general cayeron en dos categorías.
La primera categoría son las salvaguardas a nivel de modelo. En las entrevistas, los investigadores dieron la bienvenida a los esfuerzos de compañías como OpenAi y Anthrope para evitar que sus AI respondieran a las indicaciones destinadas a construir una capacidad biológica. El documento también identifica restringir la proliferación de “pesas abiertas“Modelos, y agregar protecciones contra modelos que jailbrokencomo es probable que reduzca el riesgo de que la IA se use para comenzar una pandemia.
La segunda categoría de salvaguardas implica imponer restricciones a las empresas que sintetizan los ácidos nucleicos. Actualmente, es posible enviar a una de estas compañías un código genético y recibir materiales biológicos correspondientes a ese código. Hoy, estas compañías no están obligadas por la ley a evaluar los códigos genéticos que reciben antes de sintetizarlos. Eso es potencialmente peligroso porque estos materiales genéticos sintetizados podrían usarse para crear patógenos de pedidos por correo. Los autores del documento recomiendan que los laboratorios muestren sus secuencias genéticas para verificarlos para detectar daños y para que los laboratorios implementen procedimientos “Conozca a su cliente”.
En conjunto, todas estas salvaguardas, si se implementan, podrían reducir el riesgo de una pandemia habilitada para AI a 0.4%, dijo el pronosticador promedio. (Solo un poco más alto que la línea de base del 0.3% de donde creían que el mundo era antes de saber que la IA de hoy podría ayudar a crear una biela).
“En general, parece que esta es un nuevo área de riesgo que vale la pena prestar atención”, dice Rosenberg. “Pero hay buenas respuestas políticas a ello”.