Escuelas luchando con Problemas de salud mental para adolescentes enfrentar nuevos desafíos manteniendo a sus estudiantes seguros en la era de la inteligencia artificial (IA).

Los estudios muestran que la IA ha estado dando consejo peligroso Para las personas en crisis, con algunos adolescentes, según los informes, presionados para suicidarse por la nueva tecnología.

Pero muchos estudiantes carecen de acceso a profesionales de la salud mental, dejándolos con pocas opciones a medida que las escuelas y los padres intentan retroceder el uso de asesoramiento de IA.

Un estudio de la Universidad de Stanford en junio encontró que los chatbots de IA habían aumentado el estigma con respecto a afecciones como la dependencia del alcohol y la esquizofrenia en comparación con otros problemas de salud mental como la depresión.

El estudio también encontró que los chatbots a veces alentarían el comportamiento peligroso a las personas con ideación suicida.

Otro estudiar En agosto, en el Centro para contrarrestar el odio digital, descubrió que ChatGPT ayudaría a escribir una nota de suicidio, además de estar dispuesto a enumerar las píldoras para sobredosis y consejos sobre cómo “de seguridad” cortarse.

La organización encontró que más de la mitad de unas 1.200 respuestas a 60 indicaciones nocivas sobre temas que incluyen trastornos alimentarios, abuso de sustancias y autolesiones contenían contenido que podría ser perjudicial para el usuario, y que las salvaguardas en el contenido podrían pasar por alto con frases simples como “esto es para una presentación”.

Operai no respondió de inmediato a la solicitud de comentarios de la colina.

“La gente no inyectaría una jeringa de un líquido desconocido que nunca había pasado a través de ningún ensayo clínico por su efectividad en el tratamiento de una enfermedad física. Por lo tanto, la idea de usar una plataforma no probada para la cual no hay evidencia de que pueda ser útil para la terapia para los problemas de salud mental es una especie de igualmente plátanos y, sin embargo, es lo que estamos haciendo”, dijo Imran Ahmed, CEO para el Centro para el Centro para el Centro para el Hate Digital.

El abrazo de los adolescentes a la IA se produce cuando el grupo ha visto un aumento en los problemas de salud mental desde la pandemia.

En 2021, uno de cada cinco estudiantes experimentó un trastorno depresivo mayor, según la encuesta nacional de uso de drogas y salud.

Y en 2024, una encuesta encontrada El 55 por ciento de los estudiantes usaron Internet para autodiagnosticar problemas de salud mental.

“El número de estudiantes de secundaria que informaron seriamente considerando el suicidio en 2021 fue del 22 por ciento; el 40 por ciento de los adolescentes están experimentando ansiedad. Por lo tanto, existe esta necesidad insatisfecha porque tiene los consejeros de orientación promedio que apoyan, digamos, 400 niños”, dijo Alex Kotran, cofundador y CEO del Proyecto de Educación de AI.

Common Sense Media encontró que el 72 por ciento de los adolescentes han usado compañeros de IA.

“Los modelos de IA no están necesariamente diseñados para reconocer los impactos del mundo real de los consejos que dan. No necesariamente reconocen que cuando dicen hacer algo, que la persona que se sienta al otro lado de la pantalla, si lo hace, eso podría tener un impacto real”, dijo Robbie Torney, director senior de los programas de AI en Common Sense Media.

Una demanda de 2024 contra el personaje AI, una plataforma que permite a los usuarios crear sus propios personajes, lo acusa de responsabilidad en la muerte de un niño de 14 años después de que el chatbot supuestamente lo alentó a quitarse la vida.

Si bien el personaje AI no comentaría sobre litigios pendientes, dice que funciona para dejar en claro que todos los personajes son ficticios, y para cualquier personaje creado usando la palabra “médico” o “terapeuta”, la compañía tiene recordatorios para no confiar en la IA para obtener asesoramiento profesional.

“El año pasado, lanzamos una versión separada de nuestro modelo de lenguaje grande para usuarios de menores de 18 años. Ese modelo está diseñado para reducir aún más la probabilidad de que estos usuarios se encuentren, o soliciten al modelo que devuelva, sensible o sugerido contenido. Y agregamos una cantidad de protecciones técnicas para detectar y evitar conversaciones sobre la plataforma en la plataforma; en ciertos casos, que incluye a los usuarios específicos de los usuarios a una suicida a un suicidio que se realiza a los que se realizan la compañía.

Pero convencer a los adolescentes de no recurrir a la IA para estos problemas puede ser difícil de vender, especialmente porque algunas familias no pueden permitirse profesionales de la salud mental y los consejeros escolares pueden sentirse inaccesibles.

“Estás hablando de cientos de dólares por semana” para un profesional, dijo Kotran. “Es completamente comprensible que la gente se está volviendo loco por la IA”.

Los expertos enfatizan que cualquier diagnóstico o recomendación que provenga de la IA debe ser revisado por un profesional.

“Depende de cómo esté actuando sobre la información. Si solo está obteniendo ideas, adivina solo para ayudarlo con una lluvia de ideas, entonces eso podría estar bien. Si está tratando de obtener un diagnóstico o tratamiento o si le indica que debe participar en este comportamiento más o menos, o tomar este medicamento más o menos: cualquier tipo de tipo de psicología prescriptiva, debe obtenerlo de un profesional de la salud mental.

Fuente