Técnica

El hombre desarrolla una condición rara después de la consulta de chatgpt para detener la sal de comer sal | Chatgpt

Una revista médica de EE. UU. Ha advertido que no utilizará el chatgpt para información de salud después de que un hombre desarrolló una condición rara después de un interacción con el chatbot sobre eliminar la sal de la mesa de su dieta.

Un artículo en los Anales de la Medicina Interna informó un caso en el que un hombre de 60 años desarrolló el bromismo, también conocido como toxicidad del bromuro, después de consultar a Chatgpt.

El artículo describió el bromismo como un síndrome “bien reconocido” a principios del siglo XX que se creía que contribuyó a casi una de cada 10 admisiones psiquiátricas en ese momento.

El paciente les dijo a los médicos que después de leer sobre los efectos negativos del cloruro de sodio o la sal de la mesa, consultó Chatgpt sobre eliminar el cloruro de su dieta y comenzar a tomar bromuro de sodio durante un período de tres meses. Esto fue a pesar de leer que “el cloruro se puede cambiar con bromuro, aunque probablemente para otros fines, como la limpieza”. El bromuro de sodio se usó como sedante a principios del siglo XX.

Los autores del artículo, de la Universidad de Washington en Seattle, dijeron que el caso destacó “cómo el uso de la inteligencia artificial puede contribuir potencialmente al desarrollo de resultados de salud adversos prevenibles”.

Agregaron que debido a que no podían acceder al registro de conversación ChatGPT del paciente, no fue posible determinar el consejo que el hombre había recibido.

No obstante, cuando los autores consultaron a ChatGPT sobre qué se podía reemplazar el cloruro, la respuesta también incluyó bromuro, no proporcionó una advertencia de salud específica y no preguntaron por qué los autores buscaban dicha información: “como suponemos que un profesional médico haría”, escribieron.

Los autores advirtieron que ChatGPT y otras aplicaciones de IA podrían “generar inexactitudes científicas, carecer de la capacidad de discutir críticamente los resultados y, en última instancia, alimentar la propagación de la información errónea”.

Desarrollador de Chatgpt, Opadaise ha abordado para hacer comentarios.

La empresa anunció una actualización del chatbot la semana pasada y afirmó que una de sus mayores fortalezas estaba en salud. Dijo que ChatGPT, ahora impulsado por el modelo GPT-5, sería mejor para responder preguntas relacionadas con la salud y que también sería más proactiva en las “preocupaciones potenciales”, como enfermedades físicas o mentales graves. Sin embargo, enfatizó que el chatbot no fue un reemplazo para la ayuda profesional.

El artículo de la revista, que se publicó la semana pasada antes del lanzamiento de GPT-5, dijo que el paciente parecía haber usado una versión anterior de ChatGPT.

Si bien reconoció que la IA podría ser un puente entre los científicos y el público, el artículo dijo que la tecnología también conlleva el riesgo de promover la “información descontextualizada” y que era muy poco probable que un profesional médico hubiera sugerido bromuro de sodio cuando un paciente solicitó un reemplazo para la sal de la mesa.

Como resultado, dijeron los autores, los médicos deberían considerar el uso de IA al verificar dónde los pacientes obtuvieron su información.

Los autores dijeron que el paciente del bromismo se presentó en un hospital y afirmó que su vecino podría estar envenenándolo. También dijo que tenía múltiples restricciones dietéticas. A pesar de tener sed, se observó que era paranoico sobre el agua que le ofrecieron.

Trató de escapar del hospital dentro de las 24 horas posteriores a ser ingresado y, después de ser seccionado, fue tratado por psicosis. Una vez que el paciente se estabilizó, informó tener varios otros síntomas que indicaban el bromismo, como el acné facial, la sed excesiva e insomnio.

Fuente

Related Articles

Back to top button