Con cientos de millones de personas recurriendo a los chatbots en busca de consejo, era sólo cuestión de tiempo antes de que las empresas de tecnología comenzaran a ofrecer programas diseñados específicamente para responder preguntas sobre salud.

En enero, OpenAI presentó ChatGPT Health, una nueva versión de su chatbot que, según la compañía, puede analizar los registros médicos de los usuarios.aplicaciones de bienestar y datos de dispositivos portátiles para responder preguntas médicas y de salud. Actualmente existe una lista de espera para los programas. Anthropic, una empresa rival de inteligencia artificial, ofrece características similares a algunos usuarios de su chatbot Claude.

Ambas compañías dicen que sus programas, conocidos como excelentes modelos lingüísticos, no sustituyen la atención profesional y no deben usarse para diagnosticar afecciones médicas. En cambio, dicen que los chatbots pueden resumir y explicar resultados de pruebas complicadas, ayudar a prepararse para una cita con el médico o analizar tendencias de salud importantes ocultas en registros médicos y métricas de aplicaciones.

Aquí hay algunas cosas que debe considerar antes de hablar con un chatbot sobre su salud:

Algunos médicos e investigadores que han trabajado con ChatGPT Health y programas similares los ven como una mejora con respecto al status quo.

Las plataformas de IA no son perfectas (a veces pueden alucinar o dar malos consejos), pero es más probable que la información que producen sea personalizada y específica que la que los pacientes pueden encontrar a través de una búsqueda en Google.

“La alternativa a menudo es nada o el paciente improvisa”, afirmó el Dr. Robert Wachter, experto en tecnología médica de la Universidad de California en San Francisco. “Por eso creo que si se utilizan estas herramientas de manera responsable, se puede obtener información útil”.

Una ventaja de los chatbots más nuevos es que responden a las preguntas de los usuarios con el contexto de su historial médico, incluidas recetas, edad y notas del médico.

Incluso si no le ha dado acceso a la IA a su información médica, Wachter y otros recomiendan proporcionar a los chatbots tantos detalles como sea posible para mejorar las respuestas.

Wachter y otros enfatizan que hay situaciones en las que las personas deberían ignorar el chatbot y buscar atención médica inmediata. Síntomas como dificultad para respirar, dolor en el pecho o dolor de cabeza intenso pueden indicar una emergencia médica.

Incluso en situaciones menos urgentes, los pacientes y los médicos deberían abordar los programas de IA con “un saludable grado de escepticismo”, dijo el Dr. Lloyd Minor de la Universidad de Stanford.

“Si estás hablando de una decisión médica importante, o incluso de una decisión menor sobre tu salud, nunca debes confiar únicamente en lo que obtienes de un gran modelo de lenguaje”, dijo Minor, decano de la facultad de medicina de Stanford.

Muchos de los beneficios que ofrecen los robots de IA resultan de que los usuarios compartan información médica personal. Pero es importante comprender que todo lo que se comparte con una empresa de inteligencia artificial no está protegido por la ley federal de privacidad que normalmente rige la información médica confidencial.

Comúnmente conocida como HIPAA, la ley permite multas e incluso sentencias de prisión para médicos, hospitales, compañías de seguros u otros proveedores de atención médica que revelen registros médicos. Pero la ley no se aplica a las empresas que crean chatbots.

“Cuando alguien carga su historial médico en un modelo de lenguaje grande, es muy diferente a entregárselo a un nuevo médico”, dijo Minor. “Los consumidores deben comprender que existen estándares de privacidad completamente diferentes”.

Tanto OpenAI como Anthropic afirman que la información de salud de los usuarios se mantiene separada de otros tipos de datos y está sujeta a protecciones de privacidad adicionales. Las empresas no utilizan datos de salud para entrenar sus modelos. Los usuarios deben optar por compartir su información y pueden optar por no hacerlo en cualquier momento.

A pesar del entusiasmo en torno a la IA, las pruebas independientes de la tecnología aún están en sus primeras etapas. Los primeros estudios sugieren que programas como ChatGPT pueden aprobar exámenes médicos de alto riesgo, pero a menudo tropiezan al interactuar con humanos.

Un estudio de 1.300 participantes realizado por la Universidad de Oxford descubrió recientemente que las personas que utilizan chatbots de IA para investigar condiciones de salud hipotéticas no toman mejores decisiones que las personas que utilizan la investigación en línea o el juicio en persona.

Los chatbots de IA presentados con escenarios médicos de forma integral y escrita identificaron correctamente la afección subyacente el 95% de las veces.

“Ese no era el problema”, dijo el autor principal Adam Mahdi del Oxford Internet Institute. “El lugar donde las cosas se desmoronaron fue durante la interacción con los participantes reales”.

Mahdi y su equipo encontraron varios problemas de comunicación. A menudo, las personas no proporcionaban a los chatbots la información necesaria para identificar correctamente el problema de salud. Por otro lado, los sistemas de IA a menudo respondían con una combinación de información buena y mala, y los usuarios tenían dificultades para distinguir entre ambas.

El estudio, realizado en 2024, no utilizó las últimas versiones del chatbot, incluidas nuevas ofertas como ChatGPT Health.

La capacidad de los chatbots para hacer preguntas de seguimiento y extraer detalles importantes de los usuarios es un área en la que Wachter ve margen de mejora.

“Creo que ahí es cuando esto se pondrá realmente bueno, cuando las herramientas se vuelvan un poco más médicas en la forma en que van y vienen” con los pacientes, dijo Wachter.

Por ahora, una forma de sentirse más seguro acerca de la información que recibe es consultar varios chatbots, similar a obtener una segunda opinión de otro médico.

“A veces pongo información en ChatGPT e información en Gemini”, dijo Wachter, refiriéndose a la herramienta de inteligencia artificial de Google. “Y cuando ambos están de acuerdo, me siento un poco más seguro de que ésta es la respuesta correcta”.

Publicado – 3 de marzo de 2026 1:21 p. m. IST

Fuente