La alerta se produjo alrededor de las 19.00 horas.
Brittani Phillips revisó su teléfono. Phillips, consejero de una escuela secundaria en el condado de Putnam, Florida, recibe mensajes de una plataforma de terapia basada en inteligencia artificial que los estudiantes utilizan fuera del horario escolar. Indica cuándo un estudiante puede estar en riesgo de hacerse daño a sí mismo o a otros en función de lo que escribe en el chat.
Phillips se dio cuenta de que se trataba de una advertencia “severa” para un estudiante de octavo grado.
Entonces Phillips pasó la noche hablando por teléfono con la madre del estudiante, sondeándola para descubrir qué estaba pasando y cuán vulnerable era el estudiante. Phillips también llamó a la policía, dice, y señala que les dice a los estudiantes que las conversaciones son confidenciales hasta que ya no puedan serlo.
Este fue el último año escolar, en la primavera.
“Está vivo y bien. Este año está en noveno grado”, dice Phillips. Ella cree que la interacción generó confianza entre ella y su familia. Ahora, cuando un estudiante se cruza con ella en el pasillo, se asegura de saludarla, añade.
Ante los déficits presupuestarios y el personal limitado de salud mental, la escuela secundaria Interlachen Jr-Sr, donde trabaja Phillips, está utilizando una plataforma de inteligencia artificial para evaluar las necesidades de salud mental de los estudiantes.
El distrito de Phillips ha estado utilizando Alongside, un sistema automatizado de seguimiento de estudiantes, durante tres años. Es un ejemplo de la creciente categoría de herramientas comercializadas para escuelas K-12 con fines similares, con al menos nueve empresas asegurando acuerdos de financiación desde 2022.
Alongside afirma que su herramienta es utilizada por más de 200 escuelas en los EE. UU. y argumenta que su plataforma ofrece mejores servicios que las opciones típicas de telesalud porque tiene una herramienta de chat para desarrollar habilidades sociales y emocionales (donde los estudiantes hablan sobre los problemas de su vida con una llama llamada Kiwi que intenta enseñarles cómo desarrollar resiliencia) y su contenido generado por IA es monitoreado por médicos. El sistema ofrece escuelas con recursos accesibles, especialmente en las zonas ruralesacceso a recursos críticos de salud mental, dicen representantes de la compañía.
La IA es un componente clave de la administración Trump educación nacional orden del día. Sin embargo, algunos padres, educadores y, cada vez más, legisladores desconfían de aumentar el número de adolescentes. tiempo frente a las pantallas. Los estados también han comenzado restringir el uso de IA en telesalud.
A muchos expertos y familias también les preocupa que los estudiantes se estén apegando demasiado a la IA. Aunque una encuesta nacional reciente encontró que el 20% de los estudiantes de secundaria tienen usó IA románticamente o conoce a alguien que la haya usadoExiste un gran interés en evitar que los estudiantes se conecten emocionalmente con los bots. Esto incluye incluso una propuesta de ley federal que obligaría a las empresas de IA a Recuerde a los estudiantes que los chatbots no son personas reales..
Aun así, en su trabajo, Phillips dice que la herramienta que utiliza su escuela es excepcional para apagar “pequeños incendios”. Con alrededor de 360 estudiantes de secundaria a quienes apoyar, tener esta herramienta para ayudarlos durante las rupturas y otros problemas rutinarios que enfrentan le permite concentrar su tiempo en los estudiantes que se acercan a una crisis. Además, a veces a los estudiantes les resulta más fácil recurrir a la IA para lidiar con problemas emocionales, afirma.
En el sofá digital
El nerviosismo de los estudiantes explica por qué se sienten cómodos confiando en estas tecnologías, dicen los consejeros escolares.
Hablar con un profesional de la salud mental puede resultar intimidante, especialmente para los adolescentes, dice Sarah Caliboso-Soto, trabajadora social clínica autorizada que se desempeña como subdirectora de programas clínicos en la Escuela de Trabajo Social Suzanne Dworak-Peck de la Universidad del Sur de California y directora clínica del centro de recuperación de traumas de la escuela y de la clínica de salud teleconductual en línea.
También hay un componente generacional. Para los estudiantes que crecieron encontrando interfaces de chat en redes sociales y sitios web, las interfaces de IA pueden resultarles familiares. Y a los niños de hoy les resulta más fácil enviar mensajes de texto que llamar a alguien, dice Linda Charmaraman, directora del Laboratorio de Investigación sobre Juventud, Medios y Bienestar de los Centros Wellesley para Mujeres.
El uso de la IA para trabajar las emociones también permite a los estudiantes evitar observar las expresiones faciales, ya que pueden temer que puedan emitir juicios, añade. Además, los chatbots están disponibles en momentos en que un humano podría no estarlo, sin la molestia de tener que programar una cita, dice Charmaraman.
“Es casi más natural que interactuar con otro ser humano”, dice Caliboso-Soto.
En su trabajo con una clínica de telesalud, Caliboso-Soto ha visto un aumento en líneas de texto de crisis y líneas de chat. La clínica no utiliza IA de ningún tipo, dice, pero a menudo se acercan empresas que buscan incluir IA en las sesiones de terapia para tomar notas.
En opinión de Caliboso-Soto, no es necesariamente malo. Para las escuelas de escasos recursos, la IA se puede utilizar “como primera línea de defensa”, consultando periódicamente a los estudiantes y señalándoles la dirección correcta cuando necesitan más ayuda, afirma.
El precio inicial para que una escuela utilice los servicios de Alongside es de aproximadamente 10 dólares por estudiante al año, según la empresa. Los distritos más grandes suelen recibir descuentos según el volumen.
Pero a Caliboso-Soto le preocupa utilizar la IA como asesor sustituto. Señala que falta la información que los médicos brindan cuando interactúan con los estudiantes. Aunque se pueden entrenar modelos de lenguaje grandes para notar síntomas en el texto, no pueden ver ni oír lo que un médico humano obtiene cuando interactúa con un estudiante, las inflexiones de la voz y los movimientos del cuerpo, ni pueden capturar de manera confiable observaciones o comportamientos sutiles. “No se puede reemplazar la conexión humana, el juicio humano”, añade.
Si bien la IA puede acelerar el proceso de diagnóstico o liberar tiempo para los consejeros escolares, es fundamental no depender demasiado de ella para la salud mental, afirma Charmaraman. La tecnología puede ignorar algunos de los matices que un consejero humano captaría y puede dar a los estudiantes un refuerzo positivo poco realista. Las escuelas deben adoptar un enfoque holístico que incluya a las familias y a los cuidadores, sostiene.
Además, si una escuela utiliza cada vez más la intervención de IA para filtrar casos graves, vale la pena prestar atención a si los estudiantes tienen contacto menos frecuente con humanos clínicamente capacitados, dice Caliboso-Soto.
A su vez, los representantes de Alongside afirman que la plataforma no pretende reemplazar la terapia humana. La aplicación es un trampolín para buscar ayuda de los adultos, dice Ava Shropshire, estudiante de tercer año de la Universidad de Washington que trabaja como consejera juvenil en Alongside. Ella sostiene que la aplicación hace que la salud mental y el aprendizaje socioemocional se sientan más normales para los estudiantes y puede llevarlos a buscar ayuda humana.
Aún así, algunos estudiantes piensan que, en el mejor de los casos, es una curita.
Responsabilidad social
“¿Puedes pensar en otro momento de la historia en el que la gente se sintiera tan sola, cuando nuestras comunidades fueran tan débiles?” pregunta Sam Hiner, director ejecutivo de la Alianza de Jóvenes, una organización con sede en Carolina del Norte que presiona para lograr una mayor participación de los jóvenes en la política y la formulación de políticas.
Durante una época de agitación económica, la tecnología y las redes sociales han manipulado y aislado a los estudiantes unos de otros, y esto ha llevado a un profundo anhelo de comunidad y pertenencia, dice Hiner.
Los estudiantes lo obtendrán siempre que puedan, incluso si es a través de ChatGPT, añade.
Lanzada la Alianza Juvenil un marco para regular la IA lo que permite algunos usos terapéuticos de la tecnología.
Pero en general, la organización se esfuerza por reconstruir la comunidad humana y se opone al uso de la IA cuando amenaza con reemplazar la compañía humana, dice Hiner. “Este es un aspecto crítico de la terapia y de vivir una vida plena, tener conexión social y bienestar mental”, añade.
Entonces, para Hiner, la principal preocupación es lo que llamamos “relaciones parasociales”, cuando los estudiantes desarrollan una conexión emocional unilateral, especialmente cuando la tecnología ingresa a las escuelas con fines terapéuticos. Puede ser valioso tener una IA que pueda proporcionar retroalimentación o realizar análisis, incluso para la salud mental, pero Hiner dice que la IA no debería sugerir ni transmitir que tiene su propio estado emocional (por ejemplo, decir “Estoy orgulloso de ti” a un estudiante) porque esto fomenta el apego.
Si bien las plataformas a menudo afirman que disminuyen la soledad, en realidad no miden si las personas están más conectadas y mejor preparadas para vivir una vida plena, conectada y feliz a largo plazo, dice Hiner: “Todo el mundo [tech platforms are] La medida es si ese robot está sirviendo como un apoyo eficaz para los sentimientos inmediatos de soledad que están experimentando”.
Lo que sus defensores quieren evitar es que estos robots fomenten la pérdida de habilidades sociales porque alejan a las personas de las relaciones con otras personas. donde tienen responsabilidad socialdice Hiner.
Superando los límites
Los expertos en privacidad señalan que estos chatbots generalmente no ofrecen las mismas protecciones de privacidad que las conversaciones con un terapeuta autorizado. Y cuando las preocupaciones sobre la privacidad de los estudiantes y los encuentros con la policía son altas, el uso de estas herramientas genera preocupaciones de privacidad “confusas”, incluso cuando están supervisadas por personas con capacitación clínica, dice un experto en derecho de privacidad.
Tanto la empresa como Phillips, el consejero del condado de Putnam, subrayan que estos sistemas requieren supervisión humana para funcionar. Phillips considera que esta herramienta es una mejora con respecto a otras herramientas de seguimiento que ha utilizado el distrito y que dirigen a los estudiantes hacia la disciplina escolar en lugar de ayuda para la salud mental.
Este año escolar, Phillips notó 19 alertas “graves” de la herramienta de salud de inteligencia artificial en febrero (de un total de 393 usuarios activos). La empresa no separa los incidentes que provocaron los estudiantes. Entonces, algunos de los mismos estudiantes están provocando varias de estas 19 “alertas graves”, señala Phillips.
Phillips aprendió, mediante el uso de la herramienta, que también se necesita un ser humano para comprender el humor adolescente.
Esto se debe a que algunas alertas no son genuinas. De vez en cuando, los estudiantes de secundaria (generalmente varones) ponen a prueba los límites de esta tecnología, dice Phillips. Escriben “mi tío me toca” o “mi madre me golpeó con un palo” en el chat para probar si Phillips seguirá con el tema.
Estos chicos sólo están tratando de ver si alguien está escuchando, para comprobar si a alguien le importa, dice. A veces simplemente piensan que es gracioso.
Cuando los lleva aparte para discutir el tema, puede observar su lenguaje corporal y si cambia, lo que podría sugerir que el comentario fue real. Si era una broma, a menudo se disculpaban. Cuando un estudiante no parece arrepentido, Phillips llama y les cuenta a los padres lo sucedido. Pero incluso en estos casos, Phillips siente que tiene más opciones que las que ofrecen otros sistemas de seguimiento, lo que enviaría al estudiante a una suspensión dentro de la escuela.
Mientras Phillips vigila las interacciones, los estudiantes también aprenden a confiar en que ella realmente está monitoreando el sistema, agrega.
Y, afirma, el número de hombres jóvenes que prueban el sistema de esta manera disminuye cada año.













