antrópico:
Un estudio encuentra que tan solo 250 documentos maliciosos pueden producir una vulnerabilidad de “puerta trasera” en un LLM, independientemente del tamaño del modelo o del volumen de datos de entrenamiento. — Lea el artículo… Grandes modelos de lenguaje como Claude están previamente entrenados en enormes cantidades de texto público de Internet…
Fuente













