OpenAI, meta ajuste de las respuestas de chatbot a las preguntas de los adolescentes sobre temas confidenciales

Operai y Meta se ajustarán Características de chatbot Para responder mejor a adolescentes en crisis Después de múltiples informes de los bots que dirigen a los usuarios jóvenes que se lastimaran a sí mismos o a otros, según las compañías.
“Recientemente presentamos un enrutador en tiempo real que pueden elegir entre modelos de chat eficientes y modelos de razonamiento basados en el contexto de conversación “, escribió Openii en un Blog de martes correo.
“Pronto comenzaremos a enrutar algunas conversaciones sensibles, como cuando nuestro sistema detecte signos de angustia aguda, a un modelo de razonamiento, como el pensamiento GPT-5, por lo que puede proporcionar respuestas más útiles y beneficiosas, independientemente de qué modelo sea una persona seleccionada por primera vez”, agregó la compañía.
A principios de este año, Openai formó el Consejo Experto sobre Bienestar y AI y nuestra Red de Médicos Globales para promover una interacción saludable con modelos de idiomas grandes y dijo que 250 médicos de 60 países han compartido su opinión sobre las funciones de rendimiento actuales, señaló el comunicado.
Las nuevas medidas se producen después de un joven de 16 años en California murió por suicidio Después de conversar con el chatgpt de Openai. Sus padres alegan que la plataforma lo alentó a quitarse la vida.
El abogado de la familia describió el martes el anuncio de Operai como “promesas vagas de hacerlo mejor” y “nada más que el equipo de gestión de crisis de OpenAi que intenta cambiar el tema”, La prensa Association reportado.
Instaron al CEO Sam Altman a “decir inequívocamente que cree que ChatGPT es seguro o lo saca de inmediato del mercado”.
Instancias similares de tendencias violentas que están alentados por chatbots separados se han informado en Florida y Texas.
Meta dijo TechCrunch Actualizaría sus políticas para reflejar un compromiso más apropiado con los adolescentes después de una serie de problemas. La compañía dijo que ya no permitiría a los usuarios adolescentes discutir autolesiones, suicidio, alimentación desordenada o conversaciones románticas potencialmente inapropiadas con chatbots.
“A medida que nuestra comunidad crece y la tecnología evoluciona, estamos aprendiendo continuamente sobre cómo los jóvenes pueden interactuar con estas herramientas y fortalecer nuestras protecciones en consecuencia”, dijo el meta portavoz Stephanie Otway a The Outlet.
“A medida que continuamos refinando nuestros sistemas, estamos agregando más barandillas como precaución adicional, incluida la capacitación de nuestro AIS para no interactuar con los adolescentes sobre estos temas, sino para guiarlos a los recursos expertos y limitar el acceso de los adolescentes a un grupo selecto de personajes de IA por ahora”, continuó OTWAY, “estas actualizaciones ya están en progreso y continuaremos adaptando nuestro enfoque para garantizar que los adolescentes tengan las experiencias de edad segura, las experiencias de edad de edad con AI”.