después AbiertoAI y antrópico En enero se lanzaron iniciativas dedicadas a la atención sanitaria, una el estudia Publicado en febrero, descubrió que ChatGPT Health de OpenAI tenía una tasa de error del 50% y recomendaba incorrectamente retrasar la atención en situaciones de prueba de emergencia la mitad del tiempo.
Esta tasa de error, que no se cuantificó antes del lanzamiento de la aplicación, es un síntoma de un problema más amplio: la rápida adopción de sistemas de inteligencia artificial por parte de los sistemas de salud y las compañías de seguros, omitiendo a menudo pruebas básicas para determinar qué tan bien funcionan estos sistemas y qué tan seguros son para los pacientes. Este impulso para expandir la IA a la atención médica exacerba la crisis de confianza existente.
La caída de la confianza en la atención sanitaria en Estados Unidos ha sido persistente y se ha visto exacerbada por las respuestas institucionales a la pandemia de COVID-19. A Encuesta nacional Más de 443.000 adultos estadounidenses descubrieron que la confianza en los médicos y hospitales cayó más de 30 puntos porcentuales entre 2020 y 2024, del 72 % al 40 %, con caídas en múltiples grupos sociodemográficos. a negro, latíny Pueblos indigenas En las comunidades, este colapso se basa en una desconfianza médica preexistente arraigada en un legado y una historia continua de racismo médico en el sistema de atención médica de Estados Unidos. Las investigaciones muestran que los pacientes que no confían en sus proveedores de atención médica tienen más probabilidades de hacerlo Atención retrasadaincluidos exámenes preventivos, y Dejar de tomar sus medicamentosal que están asociados estos patrones Altas tasas de hospitalización y muerte prematura.
Los daños documentados cometidos por la inteligencia artificial exacerban esta falta de confianza. Por ejemplo, Un algoritmo ampliamente citado Subestimó sistemáticamente cuán enfermos estaban los pacientes negros, que afectaban a unos 200 millones de estadounidenses, después de utilizar los gastos médicos como medida de la enfermedad. Los pacientes no sabían que esta herramienta se estaba utilizando para determinar su nivel de atención. Las aseguradoras Medicare Advantage han utilizado herramientas de inteligencia artificial que han ayudado con esto Duplicar su tasa de rechazo para pacientes de edad avanzada; Alrededor del 75% de los casos fueron de negación. Anulado en apelaciónpero menos del 1% de los pacientes la retomaron. Desde entonces, el gobierno federal ha Se lanzó una prueba de prelicencia basada en IA en Medicare tradicional en seis estados.
atención médica, contabilidad 5,3 billones de dólares, o el 18% del PIB, en 2024está siendo perseguido agresivamente por la industria de la inteligencia artificial. Las organizaciones de salud estadounidenses gastaron 1.400 millones de dólares en herramientas de inteligencia artificial en 2025casi tres veces lo que gastaron el año anterior, para una variedad de funciones, incluido el análisis de imágenes médicas y la automatización de facturación y documentación. Además de las ganancias potenciales, el sector también proporciona lo que las empresas de IA necesitan para operar y, en muchos casos, construir y mejorar sus sistemas: datos, y muchos más. Esto incluye datos en forma de registros médicos electrónicos, reclamaciones de seguros, imágenes de diagnóstico y perfiles genéticos de cientos de millones de estadounidenses, que a menudo se recopilan sin una transparencia real sobre cómo se utilizan y sin ninguna aportación de los pacientes y las comunidades.
Los datos sugieren que la rápida adopción de la IA en la atención sanitaria está exacerbando la desconfianza que los estadounidenses ya tienen sobre nuestro sistema sanitario. Estudio de febrero de 2025 El estudio, que encuestó a más de 2.000 estadounidenses, encontró que el 66% reportó poca confianza en su sistema de salud para usar la IA de manera responsable, y el 58% informó que su sistema de salud garantizaría que una herramienta de IA no los dañara.
Ni el conocimiento sobre inteligencia artificial ni la alfabetización sanitaria cambiaron estos resultados. El indicador más importante fue cuánta confianza tenía realmente la persona en el sistema de atención sanitaria.
en Encuesta representativa a nivel nacionalLa mayoría de los pacientes dijeron que querían saber cuándo se utilizó la IA en su diagnóstico y tratamiento, pero no existe una ley federal que exija la divulgación y actualmente solo unos pocos estados tienen leyes para abordar este tema. Cuando los pacientes no están informados sobre lo que les sucede a ellos o a sus datos, y a nadie se le pide que comparta esa información con ellos, afecta a todos los pacientes, pero especialmente a aquellas comunidades en las que menos confianza se tiene.
Pacientes que tienen Han sido objeto de discriminación en la atención sanitaria. Es menos probable que confíen en que los sistemas de salud utilicen la IA de manera responsable. Implementar sistemas de IA sin involucrar significativamente a los pacientes y a las comunidades en el proceso de toma de decisiones solo repite el patrón que generó desconfianza en primer lugar.
Lo que debe cambiar es quién contribuye a las decisiones sobre cómo se compran, gestionan y utilizan las herramientas de IA. Los pacientes y los miembros de la comunidad necesitan roles formales de toma de decisiones, no sólo puestos de asesoramiento. Los sistemas de salud y las compañías de seguros deben informar públicamente el desempeño, incluso entre diferentes grupos raciales y étnicos, antes de implementar herramientas de inteligencia artificial. Se debe informar a los pacientes de forma clara y anticipada cuándo se utilizará la IA en su atención. Estas son las condiciones básicas para un sistema confiable.
Los sistemas y las empresas de atención médica pueden tomar diferentes decisiones, decisiones que se ganen la confianza de sus pacientes y de las comunidades a las que sirven. Tienen la capacidad de moverse rápidamente. El trabajo más duro avanza a la velocidad de la confianza. Esto significa que los pacientes y los miembros de la comunidad tienen voz antes de comprar estos sistemas, y no después de que el daño ya esté hecho.
Oni Blackstock, MD, MHS, es médico investigador, fundador y director ejecutivo de Health Justice, y miembro de Public Voices Technology in the Public Interest del OpEd Project.

















