Google está poniendo en riesgo a las personas al restar importancia a las advertencias de seguridad de que sus consejos médicos generados por IA podrían estar equivocados.

Al responder preguntas sobre temas delicados como la salud, la compañía dice que sus resúmenes de IA, que aparecen encima de los resultados de búsqueda, incitan a los usuarios a buscar ayuda profesional en lugar de confiar únicamente en sus resúmenes. “Las descripciones generales de la IA informarán a las personas cuándo es importante buscar asesoramiento de expertos o verificar la información presentada”. Google dijo.

Pero The Guardian descubrió que la empresa no incluye tales exenciones de responsabilidad cuando los usuarios reciben asesoramiento médico por primera vez.

Google solo emite una advertencia si los usuarios optan por solicitar información de salud adicional y hacen clic en un botón llamado “Mostrar más”. Aun así, las etiquetas de seguridad solo aparecen debajo de todos los consejos médicos adicionales elaborados mediante IA generativa y en una fuente más pequeña y clara.

“Esto es sólo para fines informativos”, dice la advertencia a los usuarios que hacen clic para obtener más detalles después de ver el resumen inicial y se desplazan hasta el final de la descripción general de la IA. “Para asesoramiento o diagnóstico médico, consulte a un profesional. Las respuestas de la IA pueden incluir errores”.

Google no ha negado que sus descargos de responsabilidad no aparecen cuando los usuarios reciben consejos médicos por primera vez, o que aparecen debajo de resúmenes de IA y en una fuente más pequeña y clara. Las resúmenes de IA “animan a las personas a buscar asesoramiento médico profesional” y, a menudo, mencionan la búsqueda de atención médica en el propio resumen “cuando sea apropiado”, dijo un portavoz.

Los expertos en inteligencia artificial y los defensores de los pacientes que recibieron los hallazgos de The Guardian dijeron que estaban preocupados. Las exenciones de responsabilidad tienen un propósito vital, dijeron, y deberían aparecer de manera destacada cuando los usuarios reciben consejo médico por primera vez.

“La ausencia de exenciones de responsabilidad cuando los usuarios reciben inicialmente información médica crea varios peligros críticos”, dijo Pat Pataranutaporn, profesor asistente, tecnólogo e investigador del Instituto de Tecnología de Massachusetts (MIT) y experto de renombre mundial en inteligencia artificial e interacción entre humanos y computadoras.

“En primer lugar, incluso los modelos de IA más avanzados de hoy todavía alucinan información errónea o exhiben un comportamiento adulador, priorizando la satisfacción del usuario sobre la precisión. En contextos de atención médica, esto puede ser realmente peligroso.

“En segundo lugar, el problema no se trata sólo de las limitaciones de la IA, sino del lado humano de la ecuación. Es posible que los usuarios no proporcionen todo el contexto necesario o que hagan preguntas equivocadas al observar mal sus síntomas.

“Las exenciones de responsabilidad sirven como un punto de intervención crucial. Interrumpen esta confianza automática y alientan a los usuarios a interactuar de manera más crítica con la información que reciben”.

Gina Neff, profesora de IA a cargo de la Universidad Queen Mary de Londres, dijo que “el problema con las malas revisiones de la IA es intencional” y que Google tiene la culpa. “Las resúmenes de IA están diseñadas para brindar velocidad, no precisión, y esto genera errores en la información de salud, lo que puede ser peligroso”.

En enero, una investigación del guardián reveló que las personas corrían el riesgo de sufrir daños debido a información de salud falsa y engañosa en las resúmenes de inteligencia artificial de Google.

neff dijo las conclusiones de la investigación demostró por qué eran esenciales las exenciones de responsabilidad destacadas. “Google hace que la gente haga clic antes de encontrar cualquier aviso legal”, dijo. “Las personas que leen rápidamente pueden pensar que la información que obtienen de las descripciones generales de la IA es mejor de lo que realmente es, pero sabemos que pueden cometer errores graves”.

Tras el informe del Guardian, Google Se eliminaron resúmenes de IA para algunas, pero no para todas, las investigaciones médicas.

Sonali Sharma, investigadora del Centro de IA en Medicina e Imágenes (AIMI) de la Universidad de Stanford, dijo: “El principal problema es que estas descripciones generales de IA de Google aparecen en la parte superior de la página de búsqueda y a menudo proporcionan lo que parece ser una respuesta completa a la pregunta de un usuario en un momento en el que intenta acceder a la información y obtener una respuesta lo más rápido posible.

“Para muchas personas, debido a que este único resumen está disponible de inmediato, esencialmente crea una sensación de seguridad esto desaconseja realizar más investigaciones o desplazarse por el resumen completo y hacer clic en “Mostrar más”, donde puede aparecer una exención de responsabilidad.

“Lo que creo que puede causar daño en el mundo real es el hecho de que las reseñas de IA a menudo pueden contener información parcialmente correcta y parcialmente incorrecta, y resulta muy difícil decir qué es exacto y qué no, a menos que ya estés familiarizado con el tema”.

Un portavoz de Google dijo: “Es inexacto sugerir que las resúmenes de IA no alientan a las personas a buscar asesoramiento médico profesional. Además de un descargo de responsabilidad claro, los resúmenes de IA a menudo mencionan la búsqueda de atención médica directamente en el propio resumen, cuando corresponde”.

Tom Bishop, jefe de información para pacientes de la organización benéfica contra el cáncer de sangre Anthony Nolan, pidió que se tomen medidas urgentes. “Sabemos que la desinformación es un problema real, pero cuando se trata de información errónea sobre salud, es potencialmente muy peligrosa”, dijo Bishop.

“Este descargo de responsabilidad debe ser mucho más destacado, sólo para que la gente dé un paso atrás y piense… ‘¿Es esto algo que debo consultar con mi equipo médico en lugar de actuar? ¿Puedo tomar esto al pie de la letra o realmente necesito investigarlo con más detalle y ver cómo esta información se relaciona con mi situación médica específica?’ Porque esa es la clave aquí”.

Añadió: “Me gustaría que esta advertencia estuviera justo en la parte superior. Me gustaría que fuera lo primero que vea. E idealmente, sería del mismo tamaño de fuente que todo lo que vea allí, y no algo que sea pequeño y fácil de pasar por alto”.

Fuente