Las aplicaciones de terapia de IA mantienen a los expertos y reguladores alerta

En ausencia de una regulación federal más fuerte, algunos estados han comenzado Regulando aplicaciones que ofrecen “terapia” de IA a medida que más personas recurren a la inteligencia artificial para obtener asesoramiento de salud mental.
Pero las leyes, todas aprobadas este año, no abordan completamente el panorama de software de IA. Y los desarrolladores de aplicaciones, los encargados de formular políticas y los defensores de la salud mental dicen que el mosaico resultante de las leyes estatales no es suficiente para proteger a los usuarios o responsabilizar a los creadores de tecnología dañina.
“La realidad es que millones de personas están utilizando estas herramientas y no volverán”, dijo Karin Andrea Stephan, CEO y cofundadora de la aplicación de chatbot de salud mental Earkick.
Las leyes estatales adoptan diferentes enfoques. Illinois y Nevada han prohibido el uso de IA para tratar la salud mental. Utah colocó ciertos límites en los chatbots de terapia, que incluye exigirles que protejan la información de salud de los usuarios y que revele claramente que el chatbot no es humano. Pensilvania, Nueva Jersey y California también están considerando formas de regular la terapia de IA.
El impacto en los usuarios varía. Algunas aplicaciones han bloqueado el acceso en estados con prohibiciones. Otros dicen que no están haciendo cambios mientras esperan más claridad legal.
Y muchas de las leyes no cubren chatbots genéricos como ChatGPT, que no se comercializan explícitamente para la terapia, sino que son utilizados por un número incalculable de personas para ello. Esos bots han atraído demandas en casos horribles en los que los usuarios perdieron su control de la realidad o se han quitado la vida después de interactuar con ellos.
Vaile Wright, quien supervisa la innovación de atención médica en la Asociación Americana de Psicología, acordó que las aplicaciones podrían satisfacer una necesidad, señalando una escasez nacional de proveedores de salud mental, altos costos de atención y acceso desigual para pacientes asegurados.
Los chatbots de salud mental que están enraizados en la ciencia, creados con aportes de expertos y monitoreados por humanos podrían cambiar el paisaje, dijo Wright.
“Esto podría ser algo que ayuda a las personas antes de llegar a la crisis”, dijo. “Eso no es lo que está en el mercado comercial actualmente”.
Es por eso que se necesita regulación y supervisión federales, dijo.
A principios de este mes, la Comisión Federal de Comercio anunció que abriría consultas sobre siete compañías de chatbot de IA, incluidas las empresas matrices de Instagram y Facebook, Google, ChatGPT, Grok (The Chatbot on X), Carácter. AI y Snapchat, sobre cómo “miden, prueban y monitorean los impactos potencialmente negativos de esta tecnología en niños y adolescentes”. Y la Administración de Alimentos y Medicamentos está convocando a un Comité Asesor el 6 de noviembre para revisar los dispositivos generativos de salud mental habilitados para AI.

Las agencias federales podrían considerar las restricciones sobre cómo se comercializan los chatbots, limitar las prácticas adictivas, requerir divulgaciones a los usuarios de que no son proveedores médicos, requieren que las empresas rastreen e informen pensamientos suicidas y ofrezcan protecciones legales para las personas que informan prácticas malas por parte de las empresas, dijo Wright.
Desde “aplicaciones complementarias” hasta “terapeutas de IA” hasta aplicaciones de “bienestar mental”, el uso de IA en la atención de salud mental es variado y difícil de definir, y mucho menos escribir leyes.
Eso ha llevado a diferentes enfoques regulatorios. Algunos estados, por ejemplo, apuntan a aplicaciones complementarias que están diseñadas solo para la amistad, pero no se meten en la atención de salud mental. Las leyes en Illinois y Nevada prohíben los productos que afirman proporcionar tratamiento de salud mental directamente, amenazando multas de hasta $ 10,000 en Illinois y $ 15,000 en Nevada.
Pero incluso una sola aplicación puede ser difícil de clasificar.
Stephan de Earkick dijo que todavía hay muchas cosas que están “muy fangosas” sobre la ley de Illinois, por ejemplo, y que la compañía no ha limitado el acceso allí.
Stephan y su equipo inicialmente contuvieron llamando a su chatbot, que parece un panda de dibujos animados, un terapeuta. Pero cuando los usuarios comenzaron a usar la palabra en revisiones, adoptaron la terminología para que la aplicación apareciera en las búsquedas.
La semana pasada, retrocedieron usando terapia y términos médicos nuevamente. El sitio web de Earkick describió su chatbot como “su empático consejero de IA, equipado para apoyar su viaje de salud mental”, pero ahora es un “chatbot para el cuidado personal”.
Aún así, “no estamos diagnosticando”, mantuvo Stephan.
Los usuarios pueden configurar un “botón de pánico” para llamar a un ser querido de confianza si están en crisis y el chatbot “empujará” a los usuarios para buscar a un terapeuta si su salud mental empeora. Pero nunca fue diseñado para ser una aplicación de prevención de suicidio, dijo Stephan, y la policía no sería llamada si alguien le contaba al bot sobre pensamientos de autolesiones.
Stephan dijo que está feliz de que la gente esté mirando a la IA con un ojo crítico, pero preocupado por la capacidad de los estados para mantenerse al día con la innovación.
“La velocidad a la que todo está evolucionando es enorme”, dijo.

Otras aplicaciones bloquearon el acceso de inmediato. Cuando los usuarios de Illinois descargan la aplicación de terapia de IA Ash, un mensaje los insta a enviar un correo electrónico a sus legisladores, argumentando que “legislación equivocada” ha prohibido aplicaciones como Ash “mientras deja chatbots no regulados que pretendían regular libre para causar daño”.
Un portavoz de Ash no respondió a múltiples solicitudes de una entrevista.
Mario Treto Jr., secretario del Departamento de Regulación Financiera y Profesional de Illinois, dijo que el objetivo era en última instancia asegurarse de que los terapeutas con licencia fueran los únicos que hicieron terapia.
“La terapia es más que solo intercambios de palabras”, dijo Treto. “Requiere empatía, requiere un juicio clínico, requiere una responsabilidad ética, ninguna de las cuales AI realmente puede replicar en este momento”.
En marzo, un equipo con sede en la Universidad de Dartmouth publicó el primer ensayo clínico aleatorizado conocido de un chatbot de IA generativo para el tratamiento de salud mental.
El objetivo era que el chatbot, llamado Therabot, tratara a las personas diagnosticadas con ansiedad, depresión o trastornos alimentarios. Fue entrenado en viñetas y transcripciones escritas por el equipo para ilustrar una respuesta basada en evidencia.
El estudio encontró que los usuarios calificaron Therabot similar a un terapeuta y tenían síntomas significativamente más bajos después de ocho semanas en comparación con las personas que no lo usaban. Cada interacción fue monitoreada por un humano que intervino si la respuesta del chatbot fue perjudicial o no basada en la evidencia.

Nicholas Jacobson, un psicólogo clínico cuyo laboratorio lidera la investigación, dijo que los resultados mostraron una promesa temprana, pero que se necesitan estudios más grandes para demostrar si Therabot funciona para un gran número de personas.
“El espacio es tan dramáticamente nuevo que creo que el campo debe proceder con una precaución mucho mayor que está sucediendo en este momento”, dijo.
Muchas aplicaciones de IA están optimizadas para el compromiso y están construidas para respaldar todo lo que los usuarios dicen, en lugar de desafiar los pensamientos de las personas como lo hacen los terapeutas. Muchos caminan por la línea de compañía y terapia, éticamente, los terapeutas de los límites de intimidad de la intimidad no lo harían.
El equipo de Therabot buscó evitar esos problemas.
La aplicación todavía está en pruebas y no está ampliamente disponible. Pero a Jacobson le preocupa lo que las prohibiciones estrictas significarán para los desarrolladores que adoptan un enfoque cuidadoso. Señaló que Illinois no tenía una vía clara para proporcionar evidencia de que una aplicación es segura y efectiva.
“Quieren proteger a la gente, pero el sistema tradicional en este momento realmente está fallando a la gente”, dijo. “Entonces, tratar de seguir con el status quo realmente no es lo que hay que hacer”.
Los reguladores y defensores de las leyes dicen que están abiertos a los cambios. Pero los chatbots de hoy no son una solución a la escasez de proveedores de salud mental, dijo Kyle Hillman, quien presionó por los proyectos de ley en Illinois y Nevada a través de su afiliación con la Asociación Nacional de Trabajadores Sociales.
“No todos los que se sienten tristes necesitan un terapeuta”, dijo. Pero para las personas con problemas de salud mental reales o pensamientos suicidas, “decirles” Sé que hay una escasez de fuerza laboral pero aquí hay un bot “, esa es una posición tan privilegiada”.