El hombre se envía a sí mismo después de tomar los consejos dietéticos de Chatgpt

Un hombre de 60 años terminó en el hospital después de buscar consejos dietéticos de Chatgpt y envenenándose accidentalmente.
Según un informe Publicado en The Annals of Internal Medicine, el hombre quería eliminar la sal de su dieta y le pidió a ChatGPT un reemplazo.
La plataforma de inteligencia artificial (IA) recomendó el bromuro de sodio, un químico que se usa a menudo en los pesticidas, como sustituto. Luego, el hombre compró el bromuro de sodio en línea y lo reemplazó con sal durante tres meses.
El hombre finalmente fue al hospital, temiendo que su vecino estuviera tratando de envenenarlo. Allí, los médicos descubrieron que sufría de toxicidad del bromuro, lo que causó paranoia y alucinaciones.
La toxicidad del bromuro fue más común en el siglo XX cuando se usaron sales de bromuro en varios medicamentos de venta libre. Los casos disminuyeron bruscamente después de que la Administración de Alimentos y Medicamentos (FDA) eliminó el bromuro entre 1975 y 1989.
El caso destaca los peligros de confiar en ChatGPT para decisiones de salud complejas sin una comprensión suficiente o una alfabetización adecuada de IA.