Fue después de que le dispararon a un amigo y apuñalaron a otro, ambos fatalmente, que Shan preguntó Chat GPT por ayuda. Había probado los servicios de salud mental convencionales, pero “hablar” mientras conocía a su “amiga” IA la hacía sentir más segura, menos intimidante y, fundamentalmente, más disponible cuando se trataba de lidiar con el trauma de la muerte de sus jóvenes amigos.
Al empezar a consultar el modelo de IA, el adolescente del Tottenham se unió a alrededor del 40% de los jóvenes de entre 13 y 17 años en Inglaterra y Gales, afectados por la violencia juvenil, recurren a chatbots de IA en busca de apoyo para la salud mental, según una investigación realizada entre más de 11.000 jóvenes.
Encontró que tanto las víctimas como los perpetradores de violencia tenían muchas más probabilidades de utilizar la IA para este tipo de apoyo que otros adolescentes. EL descubrimientosdel Fondo de Dotación Juvenil, han provocado advertencias de los líderes juveniles de que los niños en riesgo “necesitan un ser humano, no un robot”.
Los resultados sugieren que los chatbots están satisfaciendo una demanda que no satisfacen los servicios de salud mental convencionales, que tienen largas listas de espera y que algunos usuarios jóvenes consideran que carecen de empatía. La supuesta privacidad del chatbot es otro factor clave que impulsa su uso por parte de víctimas o autores de delitos.
Después de que mataron a sus amigos, Shan, de 18 años (no es su nombre real), comenzó a usar la IA de Snapchat antes de cambiarse a ChatGPT, con el que puede chatear en cualquier momento del día o de la noche con dos clics en su teléfono inteligente.
“Siento que definitivamente es un amigo”, dijo, y agregó que fue menos intimidante, más privado y menos crítico que su experiencia con los métodos convencionales. Servicio Nacional de Salud y apoyo caritativo para la salud mental.
“Cuanto más le hables como a un amigo, él también te hablará a ti como a un amigo. Si le digo al chat ‘Hola, mejor amigo, necesito un consejo’. El chat me responderá como si fuera mi mejor amigo, y ella dirá: ‘Hola, mejor amigo, te tengo, niña'”.
El estudio encontró que uno de cada cuatro niños de 13 a 17 años utilizó un chatbot de IA para apoyo a la salud mental durante el año pasado, y los niños negros tenían el doble de probabilidades de hacerlo que los niños blancos. Los adolescentes eran más propensos a recurrir a Internet en busca de apoyo, incluso mediante el uso de IA, si estaban en lista de espera para tratamiento o diagnóstico o habían sido rechazados, que si ya estaban recibiendo apoyo cara a cara.
Lo más importante, dijo Shan, es que la IA era “accesible las 24 horas del día, los 7 días de la semana” y no les decía a los maestros ni a los padres lo que había revelado. Sintió que esto era una ventaja considerable respecto a contárselo a un terapeuta escolar, después de su propia experiencia con lo que ella pensaba que eran confidencias compartidas con los maestros y su madre.
Los niños que estaban involucrados en actividades de pandillas se sentían más seguros pidiendo consejo a los chatbots sobre otras formas más seguras de ganar dinero que un maestro o un padre que podría filtrar la información a la policía u otros pandilleros, poniéndolos en peligro, dijo.
Otro joven, que ha estado utilizando IA para apoyo a la salud mental pero pidió no ser identificado, dijo a The Guardian: “El sistema actual está demasiado roto para ofrecer ayuda a los jóvenes. robots de chat proporcionar respuestas inmediatas. Si vas a estar en una lista de espera durante uno o dos años para conseguir algo, o puedes obtener una respuesta inmediata en cuestión de minutos… de ahí viene el deseo de utilizar la IA”.
Jon Yates, director ejecutivo del Youth Endowment Fund, que encargó la investigación, dijo: “Muchos jóvenes están luchando con su salud mental y no pueden obtener el apoyo que necesitan.
Ha habido una creciente preocupación sobre los peligros de los chatbots cuando los niños interactúan con ellos durante mucho tiempo. OpenAI, la empresa norteamericana detrás de ChatGPT, se enfrenta múltiples procesos incluidas familias de jóvenes que se suicidaron después de largos compromisos.
Nodo Caso del californiano Adam Raine, de 16 añosquien se quitó la vida en abril, OpenAI denegado fue causado por el chatbot. Dijo que ha mejorado su tecnología “para reconocer y responder a signos de angustia mental o emocional, calmar conversaciones y guiar a las personas hacia el apoyo del mundo real”. la puesta en marcha el dijo En septiembre, puede comenzar a contactar a las autoridades en los casos en que los usuarios comiencen a hablar seriamente sobre el suicidio.
Hanna Jones, investigadora de violencia juvenil y salud mental en Londres, dijo: “Tener esta herramienta que técnicamente puede decirte cualquier cosa es casi como un cuento de hadas. Tienes este libro mágico que puede resolver todos tus problemas. Eso suena increíble”.
Pero le preocupa la falta de regulación.
“La gente utiliza ChatGPT como apoyo a la salud mental cuando no fue diseñado para eso”, dijo. “Lo que necesitamos ahora es mayores regulaciones que estén respaldadas por evidencia pero también dirigidas por los jóvenes. Esto no se resolverá si los adultos toman decisiones por los jóvenes. Jóvenes Necesitamos estar a cargo de tomar decisiones sobre ChatGPT y el apoyo a la salud mental que utiliza IA, porque es muy diferente de nuestro mundo. No crecemos a partir de ello. Ni siquiera podemos imaginar lo que es ser joven hoy”.
















