Para los desarrolladores que utilizan IA, la “codificación por vibración” ahora se reduce a encargarse de cada acción o arriesgarse a dejar que el modelo se ejecute sin control. antrópico dice Su última actualización de Claude tiene como objetivo eliminar esa opción, permitiendo a la IA decidir qué acciones es segura realizar por sí sola, con algunos límites.

La medida refleja un cambio más amplio en toda la industria, ya que las herramientas de inteligencia artificial están cada vez más diseñadas para actuar sin esperar la aprobación humana. El desafío es equilibrar la velocidad y el control: demasiadas salvaguardas ralentizan las cosas, mientras que muy pocas pueden hacer que los sistemas sean riesgosos e impredecibles. El nuevo “modo automático” de Anthropic, ahora en fase preliminar de investigación (lo que significa que está disponible para pruebas pero aún no es un producto terminado) es su último intento de enhebrar la aguja.

El modo automático utiliza protecciones de IA para revisar cada acción antes de ejecutarla, verificando comportamientos riesgosos que el usuario no solicitó y signos de inyección inmediata, un tipo de ataque en el que se ocultan instrucciones maliciosas en el contenido que la IA está procesando, lo que provoca que realice acciones no deseadas. Cualquier acción segura se producirá automáticamente, mientras que las riesgosas se bloquearán.

Es esencialmente una extensión del comando existente de Claude Code “omitir permisos peligrosamente”, que entrega toda la toma de decisiones a la IA, pero con una capa de seguridad agregada en la parte superior.

La función se basa en una ola de herramientas de codificación independientes de empresas como GitHub y OpenAI que pueden realizar tareas en nombre de un desarrollador. Pero va un paso más allá, trasladando la decisión de cuándo pedir permiso al usuario a la propia IA.

Anthropic no detalló los criterios específicos que utiliza su capa de seguridad para distinguir las acciones seguras de las riesgosas, algo que los desarrolladores probablemente querrán comprender mejor antes de adoptar la característica ampliamente. (TechCrunch se comunicó con la empresa para obtener más información sobre este asunto).

El modo automático aparece tras el lanzamiento de Anthropic Revisión del código Claudesu revisor de código automático diseñado para detectar errores antes de que lleguen al código base y Despacho para Coworkque permite a los usuarios enviar tareas a agentes de IA para que realicen el trabajo en su nombre.

Evento tecnológico

San Francisco, California
|
13-15 de octubre de 2026

El modo automático se implementará para los usuarios empresariales y de API en los próximos días. La compañía dice que actualmente solo funciona con Claude Sonnet 4.6 y Opus 4.6 y recomienda usar la nueva función en “entornos aislados”: configuraciones de espacio aislado que se mantienen separadas de los sistemas de producción, lo que limita el daño potencial si algo sale mal.

Fuente