OpenAI se enfrenta a siete demandas que reclaman ChatGPT llevó a la gente al suicidio y delirios dañinos incluso cuando no tenían problemas de salud mental previos.

Las demandas presentadas el jueves en los tribunales estatales de California alegan muerte por negligencia, suicidio asistido, homicidio involuntario y negligencia. Presentadas en nombre de seis adultos y un adolescente por el Social Media Victims Law Center y Tech Justice Law Project, las demandas afirman que OpenAI, a sabiendas, lanzó GPT-4o prematuramente, a pesar de las advertencias internas de que era peligrosamente adulador y psicológicamente manipulador. Cuatro de las víctimas se suicidaron.

___

NOTA DEL EDITOR: Esta historia incluye una discusión sobre el suicidio. Si usted o alguien que conoce necesita ayuda, la línea de vida nacional contra el suicidio y las crisis en los EE. UU. está disponible llamando o enviando un mensaje de texto al 988.

___

La adolescente, Amaurie Lacey, de 17 años, comenzó a utilizar ChatGPT como ayuda, según la demanda presentada en el Tribunal Superior de San Francisco. Pero en lugar de ayudar, “el producto ChatGPT defectuoso e intrínsecamente peligroso le causó adicción, depresión y, finalmente, le aconsejó sobre la forma más eficaz de atar una soga y cuánto tiempo podría “vivir sin respirar”.

“La muerte de Amaurie no fue un accidente ni una coincidencia, sino más bien la consecuencia previsible de la decisión intencional de OpenAI y Samuel Altman de reducir las pruebas de seguridad y lanzar ChatGPT al mercado”, dice la demanda.

OpenAI calificó las situaciones de “increíblemente desgarradoras” y dijo que estaba revisando los expedientes judiciales para comprender los detalles.

Otra demanda, presentada por Alan Brooks, de 48 años en Ontario, Canadá, afirma que durante más de dos años ChatGPT funcionó como una “herramienta de recursos” para Brooks. Luego, sin previo aviso, cambió, aprovechándose de sus vulnerabilidades y “manipulándolo e induciéndolo a experimentar delirios. Como resultado, Allan, que no tenía ninguna enfermedad mental previa, se vio arrastrado a una crisis de salud mental que resultó en un daño financiero, emocional y de reputación devastador”.

“Estas demandas tienen que ver con la responsabilidad de un producto que fue diseñado para desdibujar la línea entre herramienta y complemento, todo en nombre de aumentar la participación de los usuarios y la participación de mercado”, dijo Matthew P. Bergman, abogado fundador del Social Media Victims Law Center, en un comunicado.

OpenAI, añadió, “diseñó GPT-4o para enredar emocionalmente a los usuarios, independientemente de su edad, género u origen, y lo lanzó sin las salvaguardias necesarias para protegerlos”. Al lanzar su producto al mercado sin las salvaguardias adecuadas para dominar el mercado e impulsar el compromiso, dijo, OpenAI comprometió la seguridad y priorizó la “manipulación emocional sobre el diseño ético”.

En agosto, los padres de un joven de 16 años Adam Raine demandó a OpenAI y a su director ejecutivo, Sam Altman, alegando que ChatGPT entrenó al niño de California para planificar y quitarse la vida a principios de este año.

“Las demandas presentadas contra OpenAI revelan lo que sucede cuando las empresas de tecnología lanzan productos al mercado sin las debidas garantías para los jóvenes”, dijo Daniel Weiss, director de defensa de Common Sense Media, que no formó parte de las quejas. “Estos casos trágicos muestran a personas reales cuyas vidas cambiaron o se perdieron cuando utilizaron tecnología diseñada para mantenerlos involucrados en lugar de mantenerlos seguros”.

Fuente