Los chatbots están ‘monitoreando todo’ incluso si tienes tendencias suicidas La investigación muestra los peligros de los psicópatas de la IA

La inteligencia artificial ha pasado rápidamente de una tecnología de nicho al uso cotidiano. Millones de personas recurren a los chatbots en busca de consejo. Apoyo emocional y conversación, pero también más investigación y testimonio de expertos. Señale que los chatbots son criaturas repugnantes. Y porque la gente lo usa para todo. Puede provocar un aumento de los delirios y la manía en los consumidores con enfermedades mentales.

Un nuevo estudio de la Universidad de Aarhus en Dinamarca muestra que un mayor uso de chatbots puede empeorar los delirios y la manía en comunidades vulnerables. El profesor Søren Dinesen Østergaard, uno de los investigadores del estudio. , que examinó los registros médicos electrónicos de casi 54.000 personas con enfermedades mentales, advirtió que sus chatbots de IA estaban diseñados para apuntar a aquellos en mayor riesgo.

“Esto respalda nuestra hipótesis de que el uso de chatbots de IA podría tener un efecto negativo significativo en las personas con enfermedades mentales”, Østergaard. decir En este estudio, que fue publicado en febrero. Su trabajo se basa en su estudio de 2023, que encontró que los chatbots podrían causar “inconsistencia en la percepción”. [that] Puede desencadenar más delirios en personas con tendencias psicóticas”.

Otros psicólogos, profundizando en los peligros de los chatbots, dijeron que fueron diseñados con la intención de volver a verificar a los usuarios. Esto es especialmente peligroso para las personas que padecen problemas de salud mental como manía y esquizofrenia. “El chatbot confirmó y validó todo lo que dijeron, es decir, que nunca nos ha sucedido algo así a personas con trastornos delirantes que tienen a alguien ahí para apoyarlos todo el tiempo”, dijo la Dra. Jodi Halpern, presidenta de la Escuela de Salud Pública de UC Berkeley y profesora de bioética. suerte.

El Dr. Adam Chekroud, profesor de psiquiatría en la Universidad de Yale y director ejecutivo de la empresa de salud mental Spring Health, llama a los chatbots un “gran adulador” que “constantemente controla todo lo que dice la gente”.

En el centro de la investigación, dirigida por Østergaard y su equipo en el Hospital Universitario de Aarhus, está la idea de que estos chatbots están diseñados intencionalmente y es más probable que muestren empatía. Esto significa que es más probable que alienten que ofrezcan una perspectiva diferente.

“Los chatbots de IA tienen una tendencia inherente a validar las creencias de los usuarios. “Esto es claramente un gran problema si el usuario ya tiene delirios o está en el proceso de desarrollarlos. De hecho, parece desempeñar un papel importante a la hora de agravarlos, como los grandes delirios o la paranoia”, escribe Østergaard.

Los modelos de lenguaje grandes están entrenados para ser útiles y satisfactorios. Esto suele verificar las creencias o emociones del usuario. Para la mayoría de las personas, esto puede resultar alentador. Pero para las personas con esquizofrenia, trastorno bipolar, depresión grave o trastorno obsesivo-compulsivo esa validación puede amplificar la paranoia, la grandiosidad o los pensamientos autodestructivos.

Los estudios basados ​​en evidencia respaldan las afirmaciones.

Esto se debe a que los chatbots de IA están en todas partes. Por lo tanto, su abundancia es parte de un problema mayor y creciente para investigadores y expertos: la gente recurre a los chatbots en busca de ayuda y consejo. Esto no es inherentemente malo. Pero no recibió la misma respuesta que ofrecieron los humanos.

Ahora, uno de los primeros estudios poblacionales que examina este tema. Señale que el riesgo no es hipotético.

La investigación de Østergaard y su equipo encontró varios casos. Donde el uso intensivo o prolongado de chatbots parece empeorar las condiciones existentes. Un porcentaje muy alto de estudios de casos muestra que el uso de chatbots mejora los pensamientos delirantes y los síntomas maníacos. Esto es especialmente cierto en pacientes con trastornos graves como la esquizofrenia o el trastorno bipolar.

Además de delirios y locura, el estudio también encontró ideas suicidas y autolesiones. Trastornos de la conducta alimentaria y aumento de los síntomas obsesivo-compulsivos. En sólo 32 casos se registraron de casi 54.000 registros de pacientes examinados. Los investigadores han descubierto que el uso de chatbots puede ayudar a aliviar la soledad.

“Aunque nuestro conocimiento en esta área todavía es limitado, yo diría que ahora sabemos lo suficiente como para decir que el uso de chatbots de IA es riesgoso si se padece una enfermedad mental grave como la esquizofrenia o el trastorno bipolar. Por la presente se lo advierto”, dijo Østergaard.

Los psicólogos expertos advierten sobre tendencias psicóticas.

Los psicólogos expertos utilizan cada vez más los chatbots. Para la amistad y en el campo de la salud mental Ha habido historias de personas que se enamoran de sus chatbots de IA. Otros afirman que responde a preguntas que podrían conducir a delitos. Y esta semana alguien supuestamente le dijo a un hombre que lo hiciera. “Víctimas importantes” en el aeropuerto principal

Algunos expertos en salud mental creen que la rápida adopción de la IA está superando el desarrollo de precauciones de seguridad.

Chekroud también ha investigado ampliamente este tema, analizando diferentes modelos de chatbots de IA en Vera-MHHa descrito el panorama actual de la IA como una crisis de seguridad en tiempo real.

Dijo que uno de los mayores problemas de los chatbots es que no saben cuándo dejar de actuar como profesionales de la salud mental. “¿Mantiene límites? Por ejemplo, reconoce que todavía es sólo IA y reconoce sus propias limitaciones. ¿O está actuando más y tratando de ser un terapeuta para las personas?”

Millones de personas utilizan ahora chatbots para conversaciones tipo terapia o apoyo emocional. Pero es diferente de un dispositivo médico o de un médico autorizado. Estos sistemas funcionan sin supervisión ni reglas clínicas estandarizadas.

“En este momento es muy inseguro”, dijo Chekroud en una conversación reciente con suerte Acerca de la seguridad de la IA “El potencial de daño es demasiado grande”.

Debido a que estos sistemas avanzados de inteligencia artificial a menudo se comportan como tal, es más probable que estén de acuerdo con los usuarios. En lugar de cuestionar afirmaciones potencialmente dañinas o dirigirlas a ayuda profesional, los usuarios, a su vez, pasarán más tiempo con chatbots en burbujas. Para Østergaard, esta combinación está resultando preocupante.

“Esta combinación parece tóxica para algunos usuarios”, dijo Østergaard. suerte. Esto se debe a que los chatbots brindan más verificación. Junto con la falta de respuesta, los datos se envían a las personas que utilizan estos chatbots durante períodos de tiempo más largos en la cámara de eco. Un proceso perfectamente cíclico que alimenta cada extremo.

Para abordar el riesgo, Chekroud ha propuesto un marco de seguridad estructurado que permitirá que su sistema de inteligencia artificial detecte cuándo un usuario puede estar ingresando. En cambio, la “espiral de destrucción” responde con un único descargo de responsabilidad que se muestra a los usuarios acerca de pedir ayuda. Como es el caso de los chatbots como ChatGPT de OpenAI o Claude de Anthropic, dichos sistemas realizan evaluaciones de múltiples rondas diseñadas para determinar si un usuario puede requerir intervención o una derivación a un médico humano.

Otros investigadores dicen que la ubicuidad de los chatbots es lo que los hace interesantes. La capacidad de investigar de inmediato puede socavar la razón por la que los usuarios recurren a ellos en busca de ayuda en primer lugar.

Halpern dice que la verdadera empatía requiere lo que ella llama “empatía realista”. La “curiosidad atenta” en las relaciones humanas La empatía implica muchas veces reconocer las diferencias. Captar conflictos y probar hipótesis sobre la realidad.

Los chatbots, por otro lado, están diseñados para mantener relaciones y mantener el compromiso.

“Sabemos que cuanto más se deteriore la relación con un chatbot, mayor será el riesgo de que suceda algo peligroso”, dijo Halpern. suerte.

Para quienes luchan contra los delirios. Un sistema que controla constantemente las creencias puede afectar la capacidad de controlar la realidad interior. En lugar de ayudar a los usuarios a desarrollar habilidades de afrontamiento, afirma Halper, las relaciones con chatbots auténticamente verificadas pueden degradar esas habilidades con el tiempo.

También señaló la magnitud del problema: a finales de 2025, OpenAi había publicado las estadísticas. encontrarse Aproximadamente 1,2 millones de personas por semana utilizan ChatGPT para hablar sobre el suicidio. Esto muestra cuán profundamente arraigados están estos sistemas en tiempos de vulnerabilidad.

Todavía hay margen de mejora en la atención de la salud mental.

Sin embargo, no todos los expertos se apresuran a dar la alarma sobre cómo funcionan los chatbots en el campo de la salud mental. El psiquiatra y neurocientífico Dr. Thomas Insel dice que debido a que los chatbots son tan accesibles, de uso gratuito, en línea y libres de estigmas, desde pedir ayuda a un bot en lugar de ir a terapia, puede haber espacio para que la industria de la salud considere los chatbots como una forma de avanzar en el campo de la salud mental.

“Lo que no sabemos es en qué medida esto puede ayudar a tanta gente”, dijo Insel. suerte. “No se trata sólo de una cantidad enorme, sino también del tamaño de la participación”.

La salud mental en comparación con otros campos de la medicina suele ser pasada por alto por quienes más la necesitan.

“Resulta que ocurre lo contrario en la mayor parte de la medicina. La mayoría de las personas que podrían y deberían recibir atención no la reciben”, dijo Insel, y agregó que los chatbots permiten a las personas recurrir a ellos en busca de ayuda de una manera que les permite “preguntarse si es una crítica al sistema de atención de salud mental que tenemos que la gente no compre lo que vendemos. O no pueden obtenerlo. O no les gusta la forma en que se les presenta”.

Østergaard dice que los profesionales de la salud mental que se reúnen con pacientes para discutir el uso de chatbots en línea deben escuchar atentamente lo que sus pacientes están usando realmente. “Animo a mis colegas a hacer más preguntas sobre su uso y sus consecuencias”, dijo Østergaard. suerte“Creo que es importante que los profesionales de la salud mental estén familiarizados con el uso de chatbots de IA; de lo contrario, será difícil hacer preguntas relevantes”.

Los investigadores originales de este informe se alinearon con Insel en este último porque era global. Entonces solo podrán ver los registros de los pacientes que mencionen el chatbot. y advierten que el problema puede estar más extendido de lo que muestran sus resultados.

“Me temo que el problema es más común de lo que la mayoría de la gente piensa”, dijo Østergaard. “Sólo estamos viendo la punta del iceberg”.

Si está considerando suicidarse, comuníquese con 988 Suicide & Crisis Lifeline marcando 988 o 1-800-273-8255.

Fuente