Zero Trust: una solución probada para el nuevo desafío de seguridad de la IA

A medida que las organizaciones corren para desbloquear el potencial de productividad de los grandes modelos de idiomas (LLMS) y AI AGENIC, muchos también están despertando a un problema de seguridad familiar: ¿qué sucede cuando nuevas herramientas poderosas tienen demasiada libertad, muy pocas salvaguardas y acceso de largo alcance a datos confidenciales?
Desde la redacción del código hasta la automatización del servicio al cliente y la sintetización de las ideas comerciales, los LLM y los agentes autónomos de IA están redefiniendo cómo se realiza el trabajo. Pero las mismas capacidades que hacen que estas herramientas sean indispensables, la capacidad de ingerir, analizar y generar contenido similar a los humanos, puede ser retrocediendo rápidamente si no se rige con precisión.
Cuando un sistema de IA está conectado a datos empresariales, API y aplicaciones sin controles adecuados, el riesgo de fugas accidentales, acciones deshonestas o skyrockets malos de uso malicioso. Es tentador asumir que habilitar estas nuevas capacidades de IA requerirá el abandono de los principios de seguridad existentes.
En realidad, lo contrario es cierto: la arquitectura de confianza de cero “probado y verdadero” que ha dado forma a Resiliente ciberseguridad En los últimos años ahora se necesita más que nunca para asegurar LLMS, agentes de IA, flujos de trabajo de IA y los datos confidenciales con los que interactúan. Solo con el enfoque de autorización y aplicación basado en la identidad de Zero Trust, se puede asegurar interacciones complejas de IA.
El riesgo de IA: el mismo problema, aumento de la complejidad, estacas más altas
Las LLM se destacan en un rápido volúmenes de datos. Pero cada interacción entre un usuario y un agente de IA, un agente y un modelo, o un modelo y un base de datos crea un nuevo riesgo potencial. Considere a un empleado que usa un LLM para resumir los contratos confidenciales. Sin controles robustos, esos resúmenes o los contratos detrás de ellos podrían quedarse expuestos.
O imagine que un agente autónomo otorgó permisos para acelerar las tareas. Si no se rige por los controles de acceso estrictos en tiempo real, ese mismo agente podría extraer inadvertidamente más datos de los previstos, o ser explotado por un atacante para exfiltrar la información confidencial. En resumen, los LLM no cambian el desafío de seguridad fundamental. Simplemente multiplican las vías y la escala de exposición.
Este efecto de multiplicación es particularmente preocupante porque los sistemas de IA funcionan a velocidad y escala de la máquina. Un solo acceso no administrado que podría exponer un puñado de registros en los sistemas tradicionales podría, cuando un agente de IA explotado, resultar en la exposición de miles o incluso millones de puntos de datos confidenciales en segundos.
Además, los agentes de IA son capaces de encadenar acciones juntos, llamar a API o orquestar flujos de trabajo en múltiples sistemas, actividades que difuminan seguridad perímetros y complicar la tarea de monitoreo y contención.
En este entorno, las organizaciones ya no pueden confiar en las defensas estáticas. En cambio, la seguridad debe ser dinámica y basada en la identidad de cada usuario, agente, LLM y recurso digital para habilitar el acceso adaptativo, contextual y de menor privilegio a cada paso.
La necesidad amplificada de cero confianza en un mundo de IA
Zero Trust se basa en una idea simple pero poderosa: nunca confíe, siempre verifique. Cada usuario, dispositivo, aplicación o agente de IA debe demostrar continuamente quiénes son y qué se les permite hacer, cada vez que intentan una acción.
Este modelo se asigna naturalmente a los entornos de IA modernos. En lugar de solo tratar de filtrar las indicaciones, o recuperar datos, o salidas, filtrado que se puede pasar por alto utilizando indicaciones inteligentes, cero confianza hace cumplir la seguridad más profundamente en la pila.
Registra qué agentes y modelos pueden acceder a qué datos, bajo qué condiciones y por cuánto tiempo. Piense en ello como poner la identidad y el contexto en el centro de cada interacción, ya sea un humano que solicite datos o un proceso de IA que funcione de forma autónoma en segundo plano.
Un ejemplo en el que pensar son los ataques de inyección rápidos, donde las entradas maliciosas engañan a un LLM para que revelen datos confidenciales o realicen tareas no autorizadas. Incluso los sistemas de filtrado más avanzados han demostrado ser vulnerables a estas técnicas de jailbreak.
Pero con cero confianza, el daño de dicho ataque se evita porque el proceso de IA en sí mismo carece de privilegios permanentes. El sistema verifica las solicitudes de acceso realizadas por los componentes de IA independientemente de cualquier dependencia de la interpretación o filtrado inmediato, lo que hace imposible que un mensaje comprometido se convierta en una exposición de datos.
Cómo aplicar Zero Trust a los flujos de trabajo LLM
Asegurar LLM y la IA generativa no significa reinventar la rueda. Significa expandir los principios de fideicomiso cero comprobados a los nuevos casos de uso:
– AGENTES ATIGOS AL ATIVOS A LAS IDENTIDADES VERIFICADAS: Trate los procesos de IA como usuarios humanos. Cada agente o modelo necesita su propia identidad, roles y derechos.
-Use controles de contexto de grano fino: Limite el acceso de un agente de IA en función de factores en tiempo real como el tiempo, el dispositivo o la sensibilidad de los datos solicitados.
– Hacer cumplir los controles a nivel de protocolo: No confíe únicamente en el filtrado de nivel rápido, de salida o de recuperación. Aplique cero confianza más profundo, en el sistema y las capas de red, para bloquear el acceso no autorizado, sin importar cuán sofisticado sea el aviso.
– Mantener cero confianza a lo largo de las cadenas de interacciones de IA: Incluso para cadenas complejas de interacciones, como un usuario que usa un agente que utiliza un agente que utiliza un LLM para acceder a una base de datos, la identidad y los derechos deben trazarse y aplicarse a lo largo de cada paso de la secuencia de interacción.
– Monitorear y auditar continuamente: Mantenga la visibilidad de cada acción que tome un agente o modelo. Los registros a prueba de manipulaciones y la grabación de sesión inteligente aseguran el cumplimiento y la responsabilidad.
Para aplicar cero confianza a la IA, las organizaciones necesitarán adecuadamente Soluciones de gestión de identidad Para modelos y agentes de IA, al igual que hoy para los empleados. Esto sustentará el uso de IAM (gestión de identidad y acceso) con activos de IA y recursos digitales para la aplicación de políticas consistente.
Al aplicar Zero Trust a sus sistemas de IA, una organización puede pasar de esperar que los proyectos de IA no filtren datos o se vuelvan deshonestos a saber que no pueden. Esta garantía es más que una ventaja técnica, es un habilitador de negocios. Las organizaciones que pueden implementar con confianza la IA mientras salvaguardan sus datos innovarán más rápido, atraerán a más clientes y mantendrán el cumplimiento regulatorio en un entorno en el que las leyes en torno al uso de la IA están evolucionando rápidamente.
Los reguladores de todo el mundo señalan que la gobernanza de la IA requerirá salvaguardas demostrables contra el mal uso, y cero confianza proporciona el camino más claro hacia el cumplimiento sin sofocar la innovación. AI promete ganancias transformadoras, pero solo para aquellos que pueden aprovecharlo de manera segura. Zero Trust es el modelo de seguridad probado que garantiza que los beneficios de la IA se puedan obtener sin abrir la puerta a riesgos inaceptables.
Enumeramos el mejor software antivirus: clasificaciones y reseñas de expertos.
Este artículo fue producido como parte del canal de Insights Expert de TechRadarpro, donde presentamos las mejores y más brillantes mentes de la industria de la tecnología en la actualidad. Las opiniones expresadas aquí son las del autor y no son necesariamente las de TechRadarpro o Future PLC. Si está interesado en contribuir, obtenga más información aquí: https://www.techradar.com/news/submit-your-story-to-techradar-pro