El chatbot de AI de Anthropic Claude ahora puede elegir dejar de hablar contigo

Antrópico tiene introdujo una nueva característica En sus modelos Claude Opus 4 y 4.1 que permiten a la IA elegir terminar ciertas conversaciones.
Según la compañía, esto solo sucede en situaciones particularmente serias o preocupantes. Por ejemplo, Claude puede optar por dejar de comprometerse con usted si intenta repetidamente que el chatbot de la IA discuta el abuso sexual infantil, el terrorismo u otras interacciones “dañinas o abusivas”.
Esta característica se agregó no solo porque tales temas son controvertidos, sino porque proporciona una salida a la IA cuando múltiples intentos de redirección han fallado y el diálogo productivo ya no es posible.
Si una conversación termina, el usuario no puede continuar ese hilo, pero puede iniciar un nuevo chat o editar mensajes anteriores.
La iniciativa es parte de la investigación de Anthrope sobre el bienestar de la IA, que explora cómo la IA puede protegerse de las interacciones estresantes.
Este artículo apareció originalmente en nuestra publicación hermana PC para todos y fue traducido y localizado desde sueco.