- Check Point encontró tres vulnerabilidades en el asistente de codificación Claude Code AI
- Fallas permitieron el robo de claves RCE y API
- Problemas explotados a través de repositorios maliciosos; todo corregido antes del lanzamiento
Si quieres integrarte profundamente Herramientas de IA En sus flujos de trabajo, tenga mucho cuidado, ya que algunos modelos populares de IA tienen vulnerabilidades graves que pueden convertir a un asistente digital confiable en un infiltrado malicioso.
Investigadores de Check Point (CPR) detallado tres vulnerabilidades en Claude Code que pueden usarse para ejecutar de forma remota código malicioso (RCE) o robar datos confidenciales, como credenciales API, de víctimas desprevenidas.
De los tres fallos, dos estaban etiquetados: CVE-2025-59536 (8.7/10) y CVE-2026-21852 (5.3/10). La tercera vulnerabilidad que aún no ha recibido un CVE es una vulnerabilidad de inyección de código.
Reevaluación de los supuestos de seguridad tradicionales
Claude Code es un asistente de codificación avanzado impulsado por IA que permite a los desarrolladores trabajar con IA directamente en su entorno de codificación (como su terminal o IDE). El asistente puede hacer todo tipo de cosas, incluida la ejecución de tareas en bases de código completas, todo ello basado en instrucciones en lenguaje natural.
El CPR establece que un atacante podría crear un repositorio malicioso que incluya archivos de configuración de proyecto especialmente diseñados y compartirlo con un desarrollador (por ejemplo, a través de un correo electrónico de phishing o una asignación de trabajo falsa).
Si el desarrollador clona el repositorio en su máquina local y abre el directorio del proyecto en Claude Code, la herramienta lo cargará automáticamente, permitiendo al atacante abusar de los mecanismos integrados y activar comandos de shell ocultos. Como resultado, las solicitudes de consentimiento del usuario se sobrescriben y las herramientas y servicios externos se inicializan antes de recibir la aprobación explícita.
En pocas palabras, el atacante puede recibir capacidades de ejecución remota de código o puede extraer claves API de Anthropic antes de que el usuario confirme su confianza en el proyecto.
“Las herramientas de codificación basadas en IA se están convirtiendo rápidamente en parte de los flujos de trabajo de desarrollo empresarial. Sus beneficios de productividad son significativos, pero también lo es la necesidad de reevaluar los supuestos de seguridad tradicionales”, afirmó CPR.
“Los archivos de configuración ya no son configuraciones pasivas. Pueden influir en la ejecución, las redes y los permisos. A medida que la integración de la IA se profundiza, los controles de seguridad deben evolucionar para coincidir con los nuevos límites de confianza”.
Afortunadamente, CPR dice que todos los problemas se resolvieron antes de su publicación.
El mejor antivirus para todos los bolsillos
Siga TechRadar en Google News y agréganos como fuente preferida para recibir noticias, análisis y opiniones de expertos en tus feeds. ¡Asegúrese de hacer clic en el botón Seguir!
Y por supuesto que tú también puedes Siga TechRadar en TikTok para noticias, reseñas, unboxings en formato de video y reciba actualizaciones periódicas de nuestra parte en WhatsApp también.














