Operai restringirá cómo ChatGPT responde a un usuario que sospecha es menor de 18 años, a menos que ese usuario pase la tecnología de estimación de edad de la empresa o proporcione ID, después de Acción legal de la familia de un joven de 16 años quien se suicidó en abril después de meses de conversaciones con el chatbot.
Operai estaba priorizando “seguridad antes de la privacidad y la libertad para los adolescentes”, dijo el presidente ejecutivo Sam Altman en una publicación de blog El martes, declarar que “los menores necesitan protección significativa”.
La compañía dijo que el camino Chatgpt Responde a un joven de 15 años debe verse diferente a la forma en que responde a un adulto.
Altman dijo Opadai Planea construir un sistema de predicción de edad para estimar la edad en función de cómo las personas usan CHATGPT, y si hay duda, el sistema no se debe a la experiencia Sub-18. Dijo que a algunos usuarios “en algunos casos o países” también se les puede pedir que proporcionen una identificación para verificar su edad.
“Sabemos que este es un compromiso de privacidad para los adultos, pero creemos que es una compensación digna”.
Cómo ChatGPT responde a las cuentas identificadas como menores de 18 años cambiará, dijo Altman. El contenido sexual gráfico será bloqueado. Será capacitado para no coquetear si los usuarios menores de 18 años, o participarán en discusiones sobre suicidio o autolesiones, incluso en un asentamiento de escritura creativa.
“Y si un usuario de Sub-18 tiene ideación suicida, intentaremos contactar a los padres del usuario y, si no puede, se comunicaremos con las autoridades en caso de daños inminentes.
“Estas son decisiones difíciles, pero después de hablar con expertos, esto es lo que creemos que es mejor y queremos ser transparentes con nuestras intenciones”, dijo Altman.
Operai admitió en agosto que sus sistemas podrían quedarse cortos e instalaría barandillas más fuertes en torno a contenido sensible después de que la familia del californiano Adam Raine, de 16 años, demandara a la compañía después de la muerte del adolescente.
El abogado de la familia dijo que Adam se suicidó después de “meses de aliento de ChatGPT”, y la familia alega que GPT-4O fue “llevado al mercado … a pesar de los claros problemas de seguridad”.
Según las presentaciones de la corte de EE. UU., ChatGPT supuestamente guió a Adam sobre si su método de quitarle la vida funcionaría, y también se ofreció a ayudar a escribir una nota de suicidio a sus padres.
Operai dijo anteriormente que estaba examinando la presentación del tribunal. The Guardian se acercó a OpenAi para hacer comentarios.
Adam intercambió hasta 650 mensajes al día con ChatGPT, el tribunal presentó reclamos. En una publicación de blog después de la demanda, Openai admitió que sus salvaguardas funcionan de manera más confiable en intercambios cortos, y después de muchos mensajes durante un largo período de tiempo, ChatGPT puede ofrecer una respuesta “que va en contra de nuestras salvaguardas”.
La compañía anunció el martes que también estaba desarrollando características de seguridad para garantizar que los datos compartidos con ChatGPT sean privados incluso de empleados de OpenAI. Altman también dijo que los usuarios adultos que querían “charlar coquetos” con ChatGPT podrían tenerlo. Los usuarios adultos no podrían pedir instrucciones sobre cómo suicidarse, pero pueden pedir ayuda al escribir una historia ficticia que represente suicidio.
“Trate a adultos como adultos”, dijo Altman sobre el principio de la compañía.

















