Google eliminó algunos de sus resúmenes de salud de IA después una investigación del guardián descubrió que las personas corrían riesgo de sufrir daños debido a información falsa y engañosa.

La compañía dijo que sus resúmenes de IA, que utilizan IA generativa para proporcionar instantáneas de información esencial sobre un tema o pregunta, son “útil” y “confiable”.

Pero algunos de los resúmenes, que aparecen en la parte superior de los resultados de búsqueda, presentaban información de salud inexacta, lo que ponía a los usuarios en riesgo de sufrir daños.

En un caso que los expertos calificaron de “peligroso” y “alarmante”, Google proporcionó información falsa sobre pruebas cruciales de la función hepática que podrían hacer que las personas con enfermedades hepáticas graves pensaran erróneamente que estaban sanas.

Al escribir “cuál es el rango normal para los análisis de sangre del hígado” se obtuvieron muchos números, poco contexto y no se tenía en cuenta la nacionalidad, el sexo, el origen étnico o la edad de los pacientes, encontró The Guardian.

Lo que las resúmenes de IA de Google decían que era normal podría variar drásticamente de lo que realmente se consideraba normal, dijeron los expertos. Los resúmenes pueden hacer que los pacientes gravemente enfermos piensen erróneamente que obtuvieron un resultado normal en la prueba y no se molesten en asistir a sus reuniones de seguimiento de atención médica.

Después de la investigaciónLa empresa eliminó las descripciones generales de IA para los términos de búsqueda “cuál es el rango normal para las pruebas de sangre del hígado” y “cuál es el rango normal para las pruebas de función hepática”.

Un portavoz de Google dijo: “No comentamos sobre eliminaciones individuales en la Búsqueda. En los casos en que a las descripciones generales de IA les falta algo de contexto, trabajamos para realizar mejoras amplias y también tomamos medidas de acuerdo con nuestras políticas cuando corresponda”.

Vanessa Hebditch, directora de comunicaciones y políticas de British Liver Trust, una organización benéfica para la salud del hígado, dijo: “Esta es una excelente noticia y nos complace ver la eliminación de las descripciones generales de IA de Google en estos casos.

“Sin embargo, si la pregunta se formula de otra manera, aún se puede proporcionar una descripción general de la IA potencialmente engañosa, y seguimos preocupados de que otra información de salud producida por la IA pueda ser inexacta y confusa”.

The Guardian descubrió que escribir ligeras variaciones de las consultas originales en Google, como “rango de referencia lft” o “rango de referencia de prueba lft”, generaba resúmenes de IA. Esa era una gran preocupación, dijo Hebditch.

“Una prueba de función hepática o LFT es una colección de diferentes análisis de sangre. Comprender los resultados y qué hacer a continuación es complejo e implica mucho más que comparar un conjunto de números.

“Pero las resúmenes de IA presentan una lista de pruebas en negrita, lo que hace que sea muy fácil para los lectores pasar por alto que estos números pueden ni siquiera ser los correctos para la prueba.

“Además, los resúmenes de IA no advierten que alguien puede obtener resultados normales en estas pruebas cuando tiene una enfermedad hepática grave y necesita atención médica adicional. Esta falsa seguridad puede ser muy dañina”.

Google, que tiene una participación del 91% del mercado mundial de motores de búsquedadijo que estaba revisando nuevos ejemplos proporcionados por The Guardian.

Hebditch dijo: “Nuestra mayor preocupación con todo esto es que estamos seleccionando un solo resultado de búsqueda y Google puede simplemente desactivar las vistas generales de IA para eso, pero no aborda el problema más amplio de las vistas generales de IA para la atención médica”.

Sue Farrington, presidenta del Foro de Información para Pacientes, que promueve información de salud basada en evidencia para pacientes, el público y los profesionales de la salud, acogió con agrado la eliminación de los resúmenes, pero dijo que todavía tenía preocupaciones.

“Este es un buen resultado, pero es sólo el primer paso necesario para mantener la confianza en los resultados de búsqueda relacionados con la salud de Google. Todavía hay demasiados ejemplos de resúmenes de inteligencia artificial de Google que brindan a las personas información de salud inexacta”.

Millones de adultos en todo el mundo ya luchan por acceder a información sanitaria confiable, afirmó Farrington. “Por eso es tan importante que Google guíe a las personas hacia información de salud sólida y investigada y ofertas de atención de organizaciones de atención médica confiables”.

Las descripciones generales de IA todavía aparecen para Otros ejemplos que The Guardian destacó originalmente para Google. Incluyen resúmenes de información sobre el cáncer y la salud mental que los expertos han calificado de “completamente errónea” y “realmente peligrosa”.

Cuando se le preguntó por qué no se eliminaron también estas descripciones generales de IA, Google dijo que se vinculaban a fuentes conocidas y confiables y le decían a la gente cuándo era importante buscar asesoramiento de expertos.

Un portavoz dijo: “Nuestro equipo interno de médicos revisó lo que se compartió con nosotros y descubrió que en muchos casos la información no era inexacta y también estaba respaldada por sitios web de alta calidad”.

Victor Tangermann, editor senior del sitio web de tecnología Futurism, dijo que los resultados de la investigación de The Guardian mostraban que Google tenía trabajo por hacer “.para garantizar que su herramienta de inteligencia artificial no proporcione información errónea y peligrosa para la salud”.

Si tiene algo que compartir sobre esta historia, comuníquese con Andrew utilizando uno de los siguientes métodos.

La aplicación Guardian tiene una herramienta para enviar consejos sobre historias. Los mensajes están cifrados de extremo a extremo y ocultos en las actividades rutinarias que realiza cada aplicación móvil de Guardian. Esto impide que un observador sepa que usted se está comunicando con nosotros, y mucho menos lo que se está diciendo.

Si aún no tienes la aplicación Guardian, descárgala (iOS/Androide) y vaya al menú. Seleccione ‘Mensajes seguros’.

Correo electrónico (no seguro)

Si no necesitas un alto nivel de seguridad o confidencialidad, puedes enviar un correo electrónico andrew.gregory@theguardian.com

SecureDrop y otros métodos seguros

Si puedes utilizar la red Tor de forma segura sin ser observado o monitoreado, puedes enviar mensajes y documentos a Guardian a través de nuestro Plataforma SecureDrop.

Finalmente, nuestra guía sobre theguardian.com/tips enumera varias formas de contactarnos de manera segura y analiza los pros y los contras de cada una.

“,”image”:”https://i.guim.co.uk/img/media/ae475ccca7c94a4565f6b500a485479f08098383/788_0_4000_4000/4000. jpg?width=620&quality=85&auto=format&fit=max&s=45fd162100b331bf1618e364c5c69452″,”credit”:”Ilustración: Guardian Design / Rich Cousins”}”>

guía rápida

Póngase en contacto con Andrew Gregory acerca de esta historia

Espectáculo

Si tiene algo que compartir sobre esta historia, comuníquese con Andrew utilizando uno de los siguientes métodos.

La aplicación Guardian tiene una herramienta para enviar consejos sobre historias. Los mensajes están cifrados de extremo a extremo y ocultos en las actividades rutinarias que realiza cada aplicación móvil de Guardian. Esto impide que un observador sepa que usted se está comunicando con nosotros, y mucho menos lo que se está diciendo.

Si aún no tienes la aplicación Guardian, descárgala (iOS/Androide) y vaya al menú. Seleccione ‘Mensajes seguros’.

Correo electrónico (no seguro)

Si no necesitas un alto nivel de seguridad o confidencialidad, puedes enviar un correo electrónico andrew.gregory@theguardian.com

SecureDrop y otros métodos seguros

Si puedes utilizar la red Tor de forma segura sin ser observado o monitoreado, puedes enviar mensajes y documentos a Guardian a través de nuestro Plataforma SecureDrop.

Finalmente, nuestra guía sobre theguardian.com/tips enumera varias formas de contactarnos de manera segura y analiza los pros y los contras de cada una.

Ilustración: Guardian Design / Primos Ricos

Gracias por tus comentarios.

Google dijo que las descripciones generales de IA solo aparecen en consultas en las que existe una gran confianza en la calidad de las respuestas. La empresa mide y analiza constantemente la calidad de sus resúmenes en muchas categorías diferentes de información, añadió.

En un artículo para Diario del motor de búsquedaEl escritor principal Matt Southern dijo: “Las resúmenes de IA aparecen por encima de los resultados clasificados. Cuando el tema es la salud, los errores tienen más peso”.

Fuente