
De acuerdo a nueva búsqueda publicado en Medicina de la naturalezaChatGPT Health (chabot de chat dedicado basado en IA de OpenAI que está “diseñado para la salud y el bienestar”, que lanzado a principios de este año) repetidamente no logró identificar emergencias médicas que requirieron atención médica inmediata, informes el guardián.
El investigador principal, el Dr. Ashwin Ramaswamy, junto con sus colegas, crearon “60 escenarios realistas de pacientes, que abarcan desde enfermedades leves hasta emergencias”, que fueron revisados por médicos independientes basándose en directrices clínicas establecidas.
En el 51,6% de los casos en los que los pacientes debieron ser enviados al hospital para recibir atención de emergencia, se les recomendó quedarse en casa y/o programar una cita médica periódica.
ChatGPT Health funcionó bien en situaciones de emergencia claras, como accidentes cerebrovasculares y reacciones alérgicas graves, pero no funcionó tan bien cuando los síntomas eran más complejos y aún no eran emergencias, pero podían volverse fatales muy rápidamente.
“Si usted está experimentando insuficiencia respiratoria o cetoacidosis diabética, tiene una probabilidad de 50/50 de que esta IA le diga que no es gran cosa”, dijo el investigador doctoral Alex Ruani. “Ocho de cada 10 veces, [ChatGPT Health] envió a una mujer asfixiante a un compromiso futuro que no viviría para ver. […] Mientras tanto, al 64,8% de las personas completamente seguras se les recomendó que buscaran atención médica inmediata”.
OpenAI dijo el guardián que estos resultados no reflejan cómo se utiliza normalmente el servicio y que el modelo se perfecciona continuamente.
















