¿Tengo gripe o Covid? ¿Por qué me despierto sintiéndome cansado? ¿Qué está causando el dolor en mi pecho? Durante más de dos décadas, escribir preguntas médicas en el motor de búsqueda más popular del mundo ha generado una lista de enlaces a sitios web con las respuestas. Google estas consultas de salud hoy y la respuesta probablemente será escrita por inteligencia artificial.
Sundar Pichai, director ejecutivo de Google, expuso por primera vez los planes de la compañía para incorporar IA en su motor de búsqueda en su conferencia anual en Mountain View, California, en mayo de 2024. A partir de ese mes, dijo, los usuarios estadounidenses verían una nueva función, AI Overviews, que proporcionaría resúmenes de información además de los resultados de búsqueda tradicionales. La medida marcó el mayor cambio en el producto principal de Google en un cuarto de siglo. En julio de 2025, la tecnología se había expandido a más de 200 países en 40 idiomas, y cada mes se brindaba servicio a 2 mil millones de personas con AI Overview.
Con la rápida implementación de AI Overviews, Google está corriendo para proteger su negocio de búsqueda tradicional, que genera alrededor de 200 mil millones de dólares (£ 147 mil millones) al año, antes de que los rivales emergentes de IA puedan descarrilarlo. “Estamos liderando la frontera de la IA y avanzando a un ritmo increíble”. Pichai dijo el pasado julio. Las revisiones de IA, en particular, han “funcionado bien”, añadió.
Pero las opiniones generales conllevan riesgos, dicen los expertos. Utilizan IA generativa para proporcionar instantáneas de información sobre un tema o pregunta, agregando respuestas conversacionales por encima de los resultados de búsqueda tradicionales en un abrir y cerrar de ojos. Pueden citar fuentes, pero no necesariamente saben cuándo esa fuente es incorrecta.
Apenas unas semanas después del lanzamiento de la función en EE. UU., Los usuarios encontraron mentiras. sobre una variedad de temas. Una visión general de la IA dijo Andrew Jackson, el séptimo presidente de Estados Unidos, se graduó de la universidad en 2005. Elizabeth Reid, jefa de búsqueda de Google, respondió a las críticas en una publicación de blog. Admitió que “en un pequeño número de casos”, la IA supervisa el lenguaje mal interpretado en las páginas web y presenta información inexacta. “A la escala de la web, con miles de millones de consultas que llegan cada día, es probable que haya algunas rarezas y errores”, escribió.
Pero cuando estas preguntas son sobre salud, la precisión y el contexto son esenciales y no negociables, dicen los expertos. Google se enfrenta a un escrutinio cada vez mayor de sus resúmenes de IA para citas médicas después una investigación del guardián descubrió que las personas corrían riesgo de sufrir daños debido a información de salud falsa y engañosa.
La empresa afirma que las descripciones generales de IA son “confiable“. Pero el guardián encontró algunos resúmenes médicos proporcionaban información de salud inexacta y ponían a las personas en riesgo. En un caso, que los expertos consideraron “realmente peligroso”, Google aconsejó erróneamente a las personas con cáncer de páncreas que evitaran los alimentos ricos en grasas. Los expertos dijeron que esto es exactamente lo contrario de lo que debería recomendarse y podría aumentar el riesgo de que los pacientes mueran a causa de la enfermedad.
En otro ejemplo “alarmante”, la empresa proporcionó información falsa sobre pruebas cruciales de la función hepática, que podrían hacer que las personas con enfermedades hepáticas graves pensaran erróneamente que estaban sanas. Lo que AI Overviews dice que es normal puede variar drásticamente de lo que realmente se considera normal, dijeron los expertos. Los resúmenes pueden llevar a los pacientes gravemente enfermos a pensar erróneamente que obtuvieron un resultado normal en la prueba y no molestarse en asistir a las citas de seguimiento.
Las resúmenes de IA sobre las pruebas de cáncer en mujeres también proporcionaron “completamente equivocado”Información, que según los expertos puede hacer que las personas ignoren los síntomas genuinos.
Google inicialmente buscó minimizar Las conclusiones del Guardian. Por lo que sus propios médicos pudieron juzgar, dijo la compañía, las revisiones de IA alarmaron a los expertos vinculados a fuentes confiables y recomendaron buscar asesoramiento de expertos. “Hemos invertido significativamente en la calidad de las resúmenes de IA, especialmente para temas como la atención médica, y la gran mayoría proporciona información precisa”, dijo un portavoz.
Sin embargo, dentro de unos días la empresa eliminada algunas de las descripciones generales de la IA para consultas de atención médica señaladas por The Guardian. “No hacemos comentarios sobre destituciones individuales en las encuestas”, dijo un portavoz. “En los casos en los que a las descripciones generales de la IA les falta algo de contexto, trabajamos para realizar mejoras amplias y también tomar medidas de acuerdo con nuestras políticas cuando sea apropiado”.
Si bien los expertos han acogido con satisfacción la eliminación de algunos resúmenes de IA para consultas de atención médica, muchos siguen preocupados. “Nuestra mayor preocupación con todo esto es que estamos seleccionando un solo resultado de búsqueda y Google puede simplemente desactivar las resúmenes de IA para eso, pero no aborda el problema más importante de los resúmenes de IA para la atención médica”, dice Vanessa Hebditch, directora de comunicaciones y políticas de British Liver Trust, una organización benéfica para la salud del hígado.
“Todavía hay demasiados ejemplos de resúmenes de inteligencia artificial de Google que brindan a las personas información de salud inexacta”, agrega Sue Farrington, presidenta del Foro de Información para Pacientes, que promueve información de salud basada en evidencia para pacientes, el público y los profesionales de la salud.
UNO nuevo estudio planteó más preocupaciones. Cuando los investigadores analizaron las respuestas a más de 50.000 encuestas relacionadas con la salud en Alemania para ver en qué fuentes se basan más las resúmenes de IA, un resultado destacó de inmediato. El dominio más citado fue YouTube.
“Esto es importante porque YouTube no es un editor médico”. los investigadores escribieron. “Es una plataforma de vídeo de uso general. Cualquiera puede subir contenido allí (por ejemplo, médicos certificados, canales de hospitales, pero también personas influyentes en el bienestar, coaches de vida y creadores sin formación médica)”.
En medicina, lo importante no es sólo de dónde provienen las respuestas o su nivel de precisión, sino también cómo se presentan a los usuarios, dicen los expertos. “Con las descripciones generales de la IA, los usuarios ya no encuentran una variedad de fuentes que puedan comparar y evaluar críticamente”, dice Hannah van Kolfschooten, investigadora en IA, salud y derecho de la Universidad de Basilea. “En cambio, reciben una respuesta única y confiable generada por IA que demuestra autoridad médica.
“Esto significa que el sistema no sólo refleja información de salud en línea, sino que la reestructura activamente. Cuando esa respuesta se basa en fuentes nunca diseñadas para cumplir con estándares médicos, como YouTube videos, esto crea una nueva forma de autoridad médica no regulada en línea”.
Google dice que se crean descripciones generales de IA para mostrar información respaldada por los mejores resultados webe incluir enlaces a contenido web que respalde la información presentada en el resumen. La gente puede utilizar estos enlaces para profundizar en un tema, dijo la empresa a The Guardian.
Pero los bloques individuales de texto en AI Overviews, que combinan información de salud de múltiples fuentes, pueden causar confusión, dice Nicole Gross, profesora asociada de negocios y sociedad en el National College of Ireland.
“Una vez que aparece el resumen de IA, es mucho menos probable que los usuarios busquen más, lo que significa que se les priva de la oportunidad de evaluar y comparar información críticamente, o incluso de usar su sentido común cuando se trata de cuestiones relacionadas con la salud”.
Los expertos han planteado otras preocupaciones a The Guardian. Incluso si las resúmenes de IA proporcionan datos precisos sobre un tema médico específico, es posible que no distingan entre evidencia sólida de ensayos aleatorios y evidencia más débil de estudios observacionales, dicen. Algunos también ignoran importantes advertencias sobre esta evidencia, añaden.
Tener dichas afirmaciones enumeradas una al lado de la otra en una descripción general de la IA también puede dar la impresión de que algunas están mejor establecidas de lo que realmente están. Las respuestas también pueden cambiar a medida que evolucionan las opiniones generales sobre la IA, incluso cuando la ciencia no ha cambiado. “Esto significa que las personas obtienen diferentes respuestas dependiendo de cuándo buscan, y eso no es suficiente”, dice Athena Lamnisos, directora ejecutiva de la organización benéfica contra el cáncer Eve Appeal.
Google le dijo a The Guardian que los enlaces incluidos en las resúmenes de IA eran dinámicos y cambiaban según la información más relevante, útil y oportuna para una búsqueda determinada. Si AI Overviews malinterpretara el contenido web o perdiera algún contexto, la compañía usaría esos errores para mejorar sus sistemas y también tomaría medidas cuando fuera apropiado, dijo.
La mayor preocupación es que la información o los consejos médicos falsos y peligrosos contenidos en AI Overview “acaben traduciéndose en las prácticas, rutinas y la vida cotidianas del paciente, incluso en formas adaptadas”, dice Gross. “En la atención sanitaria, esto puede convertirse en una cuestión de vida o muerte”.














