Técnica

Cómo 250 documentos furtivos pueden destruir silenciosamente poderosos cerebros de IA y hacer que incluso modelos de mil millones de parámetros digan tonterías totales


  • Sólo 250 archivos corruptos pueden hacer que los modelos avanzados de IA colapsen instantáneamente, advierte Anthropic
  • Pequeñas cantidades de datos envenenados pueden desestabilizar incluso sistemas de inteligencia artificial de mil millones de parámetros
  • Una simple frase desencadenante puede obligar a modelos grandes a producir tonterías aleatorias

Modelos de lenguaje grandes (Llms) se han vuelto centrales para el desarrollo de la modernidad. herramientas de inteligencia artificialimpulsando todo, desde chatbots hasta sistemas de análisis de datos.

Pero antrópico ha advertido que se necesitarían solo 250 documentos maliciosos que pueden envenenar los datos de entrenamiento de un modelo y provocar que genere galimatías cuando se activan.



Fuente

Related Articles

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Back to top button