Operai responde a suscriptores de chatgpt furiosos que lo acusan de cambiar en secreto a modelos inferiores

- Las nuevas reglas de seguridad de ChatGPT son usuarios frustrantes
- Los temas sensibles se redirigen a diferentes modelos de IA
- Operai ha publicado una respuesta a las quejas de los usuarios
OpenAi se ve envuelto en otra controversia sobre el cambio de modelo AI en Chatgptcon muchos usuarios que pagan a los usuarios furiosos de que están siendo redirigidos de su modelo preferido cada vez que los temas de conversación se vuelven emocionales o legalmente sensibles.
Hay infinidad de trapos en Reddit Sobre el problema: en resumen, ChatGPT introdujo nuevas barandillas de seguridad este mesque llevan a los usuarios a un modelo de IA separado y más conservador si el chatbot Detecta que debe ser más cauteloso en sus respuestas.
Eso está claramente frustrado y molesto a muchos usuarios, que quieren quedarse con GPT-4O, GPT-5, o lo que sea que estén usando, especialmente aquellos que están pagando. Actualmente no hay forma de deshabilitar este comportamiento, y no está particularmente claro cuándo ocurren los interruptores.
“Los adultos merecen elegir el modelo que se ajuste a su flujo de trabajo, contexto y tolerancia al riesgo”, escritura un usuario. “En cambio, estamos recibiendo anulaciones silenciosas, enrutadores de seguridad secretos y un selector modelo que ahora es básicamente teatro de UI”.
Enrutamiento de seguridad
Hemos visto las fuertes reacciones a las respuestas 4O y queremos explicar lo que está sucediendo.27 de septiembre de 2025
Se ha iniciado suficiente alboroto que el ejecutivo de Operai Nick Turley ha pesado En las redes sociales. Turley explica que el nuevo sistema de enrutamiento de seguridad es para “temas sensibles y emocionales”, y funciona por mensaje y temporal.
Es parte de un esfuerzo más amplio para mejorar la forma en que ChatGPT responde a los signos de angustia mental y emocional, ya que OpenAi ha sido anteriormente explicado en una publicación de blog. Sin embargo, desde la perspectiva del usuario, las nuevas reglas se están acostumbrando.
Operai claramente tiene la responsabilidad de cuidar a los usuarios que podrían ser vulnerables y que puedan necesitar un apoyo adicional de un chatbot de IA que no sea tan expansivo y libre, y en particular Jóvenes que acceden a chatgpt.
Sin embargo, para muchos usuarios que desahogan su ira en línea, es como verse obligado a ver la televisión con los controles parentales bloqueados en su lugar, incluso si no hay niños alrededor. Es probable que este sea un problema del que escuchamos más en los próximos días.