La inteligencia artificial (IA) ha entrado en casi todos los rincones de la vida profesional y la atención de la salud mental no es una excepción. Las aplicaciones de diagnóstico sugieren posibles condiciones, los chatbots ofrecen intervenciones rápidas y el software promete aliviar la carga administrativa de los médicos con exceso de trabajo. Pero en terapia, donde el trabajo depende de los matices humanos, la pregunta no es simplemente qué puede hacer la IA; Más bien, se trata de si la profesión puede integrarlo sin perder lo que hace que el tratamiento sea eficaz.

Dina Guidotrabajadora social clínica, educadora y autora con más de cuarenta y cinco años en el campo, se ha convertido en una voz líder en este debate. Su especialidad en ética y administración la ubica en la encrucijada de la tradición y la tecnología, donde guía a médicos y estudiantes experimentados a través de las promesas y los peligros de la inteligencia artificial.

“La IA es una gran herramienta”, afirma Guido. “Pero una herramienta, sea la que sea, no se adapta a todo. Y esta herramienta en particular no se adapta a las relaciones humanas”.

La IA como asistente, no como asistente

Guido reconoce que la inteligencia artificial puede brindar un apoyo útil. Los médicos pueden consultarlo para obtener información general, posibles intervenciones o tareas regulatorias como facturación y documentación. Para algunos clientes, incluso puede proporcionar un descanso temporal, una forma accesible de crear estrategias de afrontamiento o realizar un seguimiento de patrones entre sesiones.

Pero no son ambiguos en cuanto a la línea entre asistencia y reemplazo. “La IA puede indicarle las 10 mejores cosas que puede hacer para tratar la depresión”, explica. “Lo que no se puede hacer es notar la larga pausa antes de una declaración, o la forma en que un cliente comienza a hacer tapping cuando está ansioso. Estas son las señales que nos ayudan a comprender lo que realmente está pasando”.

Para Guido, la diferencia no es sutil. Las máquinas dependen de insumos; Sólo responden a lo escrito o hablado. Los terapeutas humanos están capacitados para sentir lo que no se dice, leer silencios y gestos y sintonizar su sistema nervioso con el del cliente. “Sabemos por décadas de terapia de trauma que el cuerpo tiene significado”, dice. “La IA puede generar palabras sobre prácticas corporales, pero no puede reconocer si un cuerpo en una habitación está desorganizado”.

Peligro de dependencia excesiva

Guido ve un peligro particular para los médicos al principio de sus carreras. Muchos se sienten atraídos por la velocidad y claridad que ofrece la IA, a veces a expensas de un razonamiento clínico más profundo. Recuerda a un supervisor que ingresó los síntomas de un cliente en un programa de inteligencia artificial y obtuvo un diagnóstico claro. Cuando revisaron el caso juntos, Guido notó que la máquina había ignorado dinámicas relacionales críticas que habían cambiado completamente el panorama.

“Lo preocupante es que cuanto más dependamos de la IA como herramienta de diagnóstico, menos ejercitaremos nuestra capacidad de discriminar”, afirma. “El discernimiento es la esencia del tratamiento”.

Este riesgo se extiende más allá del diagnóstico. Incluso al generar ideas de tratamiento, la IA funciona de manera prescriptiva. Proporciona intervenciones basadas en patrones encontrados en sus datos de capacitación, no en la relación vivida entre terapeuta y cliente. Guido enfatiza que la terapia requiere moverse con fluidez entre los detalles minuciosos y el contexto de la vida más amplio, lo que ella llama el “acordeón que entra y sale”. Por el contrario, la IA no puede establecer prioridades; Simplemente produce más.

Privacidad, consentimiento y uso ético

Otro tema crucial es la privacidad. Cuando los médicos introducen los detalles de los clientes en los sistemas de inteligencia artificial, estos datos no desaparecen. “Todo lo que pones en el dispositivo queda incrustado en alguna parte”, advierte Guido. “Los clientes tienen derecho a saber qué sucede con su información”.

Exige un consentimiento explícito y compatible con HIPAA siempre que se utilice IA en la práctica, de forma muy similar a como se introdujeron los formularios de consentimiento cuando la telesalud se generalizó durante la pandemia. “No basta con ponerlo en un montón de papeles”, afirma. “En terapia, el consentimiento es relacional. Los clientes necesitan comprender realmente cómo se utilizarán sus datos”.

Esto es parte de la insistencia más amplia de Guido en que los médicos traten la IA como lo harían con cualquier otra herramienta profesional: con cuidado y transparencia, y siempre con supervisión humana. Ella señala que incluso con algo tan mundano como las facturas, se producen errores si los humanos dejan de verificar el resultado de la máquina. “Si no somos responsables, corremos el riesgo de salir perjudicados”, afirma.

El elemento humano que la IA no puede tocar

Quizás el recordatorio más convincente para Guido es que la terapia se trata fundamentalmente de comunicación. En una sociedad que ya está estresada por el aislamiento y la sobrecarga digital, la IA es un arma de doble filo. Si bien puede brindar afirmación o consejo rápido, no puede replicar el efecto estructurado de una presencia de corazón a corazón que reduce la ansiedad y restablece la confianza.

“Nuestros corazones se adaptan a otros humanos”, dice. “Puedes sostener a un bebé y sentir que el ritmo cardíaco está sincronizado. Eso es biología. No podemos regularlo con inteligencia artificial”.

Para Guido, esta es la limitación definitiva. Las máquinas pueden simular el apoyo, pero no pueden encarnarlo. Pueden estar de acuerdo con nosotros, repetir nuestros prejuicios u ofrecernos aliento, pero no pueden desafiarnos de la manera correcta, en el momento correcto, en presencia de otra persona.

Hacia una integración responsable

El próximo trabajo de Guido sobre el uso ético de la IA en la supervisión enfatiza un enfoque equilibrado: usar la tecnología como un recurso entre muchos, en lugar de como un recurso único. Ella anima a los supervisores a llevar la IA a la sala de formación, no para prohibirla, sino para cuestionarla. “Pregunte: ¿Qué puse? ¿Qué di a cambio? ¿Qué podría faltar?” Ella dice. Al hacer tecnología Es parte de la supervisión y espera modelar cómo abordarlo de manera crítica y no negativa.

También insta a las organizaciones y educadores a pasar de reactivos a proactivos. Ella sostiene que, en lugar de esperar a que surjan problemas, los programas deberían preparar a los estudiantes ahora con políticas de consentimiento, prácticas y pautas éticas diseñadas específicamente para la IA. El objetivo no es eliminar la tecnología, sino integrarla firmemente en un marco centrado en el ser humano.

Mantenga la línea

Guido suele pedir a los médicos que imaginen el legado que quieren dejar: su “elogio moral”. Una y otra vez, la ambición sigue siendo la misma: no hacer daño. Ella cree que para alcanzar este ideal será necesario estar alerta en la era de la inteligencia artificial. La comodidad, el tamaño y la automatización siempre atraerán a esta área. Pero para que la terapia siga siendo terapia, los profesionales deben recordar dónde termina la IA.

“La IA seguirá creciendo”, afirma Guido. “Pero mientras seamos seres humanos, la esencia del tratamiento siempre será otro ser humano”.

Para obtener más información sobre Dayna Guido o reservarla para su próximo seminario, visite https://daynaguido.com/

Fuente