Operai evita que Chatgpt le diga a las personas que rompan con socios | Chatgpt

Chatgpt No les dirá a las personas que rompan con su pareja y alentarán a los usuarios a tomar descansos de largas sesiones de chatbot, bajo nuevos cambios en la herramienta de inteligencia artificial.
Operai, desarrollador de ChatGPT, dijo que el chatbot dejaría de dar respuestas definitivas a los desafíos personales y, en cambio, ayudaría a las personas a reflexionar sobre problemas como posibles rupturas.
“Cuando preguntas algo como: ‘¿Debería romper con mi novio?’ ChatGPT no debería darle una respuesta. Dijo Openai.
La compañía estadounidense dijo que pronto se implementaría un nuevo comportamiento de chatgpt para lidiar con “decisiones personales de alto riesgo”.
Operai admitió este año que una actualización de ChatGPT había hecho que el chatbot innovador fuera demasiado agradable y alterara su tono. En una interacción reportada antes del cambio, chatgpt felicitó a un usuario para “defenderse” cuando afirmaron que habían dejado de tomar su medicamento y dejado a su familia, de quien el usuario había pensado que eran responsables Señales de radio que emanan desde las paredes.
En la publicación del blog, OpenAi admitió que hubo casos en los que su modelo 4O avanzado no había reconocido signos de ilusión o dependencia emocional, en medio de las preocupaciones de que los chatbots son empeora las crisis de salud mental de las personas.
La compañía dijo que estaba desarrollando herramientas para detectar signos de angustia mental o emocional para que ChatGPT pueda dirigir a las personas a recursos “basados en evidencia” de ayuda.
Un estudio reciente de Doctores del NHS en el Reino Unido Advirtió que los programas de IA podrían amplificar contenido delirante o grandioso en los usuarios vulnerables a la psicosis. El estudio, que no ha sido revisado por pares, dijo que el comportamiento de los programas podría deberse a que los modelos fueron diseñados para “maximizar el compromiso y la afirmación”.
El estudio agregó que incluso si algunas personas se beneficiaron de las interacciones de IA, había una preocupación de que las herramientas pudieran “desdibujar los límites de la realidad e interrumpir la autorregulación”.
Operai agregó que a partir de esta semana enviaría “recordatorios suaves” para tomar un descanso de pantalla a los usuarios que participan en largas sesiones de chatbot, similar a las funciones de tiempo de pantalla implementadas por las compañías de redes sociales.
Operai también dijo que había convocado a un grupo asesor de expertos en salud mental, desarrollo juvenil y interacción humana-computadora para guiar su enfoque. La compañía ha trabajado con más de 90 médicos, incluidos psiquiatras y pediatras, para construir marcos para evaluar las conversaciones de chatbot “complejas y multi-giros”.
“Nos mantenemos a una prueba: si alguien que amamos se convirtió en chatgpt para obtener apoyo, ¿nos sentiríamos tranquilizados? Llegar a un” sí “inequívoco es nuestro trabajo”, dijo la publicación del blog.
Las alteraciones de ChatGPT se anunciaron en medio de especulaciones de que una versión más poderosa del chatbot es inminente. El domingo Sam Altman, director ejecutivo de OpenAi, compartió una captura de pantalla de lo que parecía ser el último modelo de IA de la compañía, GPT-5.