
OpenAI está implementando dos nuevas funciones de seguridad en ChatGPT para abordar las crecientes amenazas a sus sistemas de inteligencia artificial, según un informe. publicación de blog reciente.
A medida que los servicios de IA se conectan cada vez más a partes más amplias de la web y a más aplicaciones externas, también aumenta el riesgo de los llamados “ataques de inyección inmediata”. Un ataque de inyección inmediata ocurre cuando alguien crea un mensaje engañoso en un intento de engañar al LLM para que siga instrucciones maliciosas y/o revele información confidencial.
Una de las nuevas características de ChatGPT es el Modo Bloqueo, un modo de seguridad opcional dirigido a usuarios con altos requisitos de privacidad. Este modo limita estrictamente cómo ChatGPT interactúa con sistemas externos. Ciertas herramientas y funciones están completamente deshabilitadas y la navegación web solo se permite a través de contenido almacenado en caché en lugar de llamadas directas de red. El modo Lockdown estará disponible primero para los clientes comerciales y luego se implementará para los consumidores en los próximos meses.
Al mismo tiempo, se introducirá un etiquetado de riesgos más claro, con una etiqueta uniforme que diga “Alto riesgo” para las funciones que plantean un mayor riesgo de seguridad (por ejemplo, aquellas que brindan acceso a la red a herramientas de inteligencia artificial). Las etiquetas serán visibles en ChatGPT, ChatGPT Atlas y Codex.















