Mind está iniciando una importante investigación sobre inteligencia artificial y salud mental después de que una investigación de The Guardian expusiera cómo las descripciones generales de inteligencia artificial de Google daban a las personas consejos médicos “muy peligrosos”.
En una comisión de un año de duración, la organización benéfica de salud mental, que opera en Inglaterra y Gales, examinará los riesgos y salvaguardas necesarios a medida que la IA influye cada vez más en las vidas de millones de personas afectadas por problemas de salud mental en todo el mundo.
La encuesta, la primera de su tipo a nivel mundial, reunirá a los principales médicos y profesionales de la salud mental del mundo, así como a personas con experiencia vivida, proveedores de atención médica, formuladores de políticas y empresas de tecnología. Mind dice que su objetivo será dar forma a un ecosistema de salud mental digital más seguro con regulaciones, estándares y salvaguardias sólidas.
El lanzamiento se produce después de que The Guardian revelara cómo las personas se ponían en riesgo de sufrir daños debido a información de salud falsa y engañosa en las resúmenes de inteligencia artificial de Google. Los resúmenes generados por IA se muestran a 2 mil millones de personas por mes y aparecen encima de los resultados de búsqueda tradicionales en el sitio web más visitado del mundo.
Después del informe, Google Se eliminaron resúmenes de IA. para algunas, pero no para todas, las investigaciones médicas. La Dra. Sarah Hughes, directora ejecutiva de Mind, dijo que todavía se estaban dando al público consejos de salud mental “peligrosamente incorrectos”. En el peor de los casos, la información falsa puede poner vidas en riesgo, afirmó.
Hughes dijo: “Creemos que la IA tiene un enorme potencial para mejorar las vidas de las personas con problemas de salud mental, ampliar el acceso al apoyo y fortalecer los servicios públicos. Pero este potencial sólo se realizará si se desarrolla e implementa de manera responsable, con salvaguardias proporcionales a los riesgos.
“Las cuestiones expuestas por los informes de The Guardian se encuentran entre las razones por las que estamos lanzando la comisión Mind sobre IA y salud mental, para examinar los riesgos, oportunidades y salvaguardas necesarias a medida que la IA se integra más profundamente en la vida cotidiana.
“Queremos asegurarnos de que la innovación no se produzca a expensas del bienestar de las personas y que aquellos de nosotros con experiencia vivida en problemas de salud mental estemos en el centro de la configuración del futuro del soporte digital”.
Google dijo que sus resúmenes de IA, que utilizan IA generativa para proporcionar instantáneas de información esencial sobre un tema o pregunta, son “útil” y “confiable”.
Pero The Guardian descubrió que algunas reseñas de IA proporcionaban información de salud inexacta y ponían a las personas en riesgo. La investigación descubrió consejos médicos falsos y engañosos sobre una variedad de temas, incluidos el cáncer, las enfermedades hepáticas y la salud de la mujer, así como problemas de salud mental.
Los expertos dijeron que algunas revisiones de la IA para enfermedades como la psicosis y los trastornos alimentarios ofrecían “consejos muy peligrosos” y eran “incorrectos, dañinos o podían llevar a las personas a evitar buscar ayuda”.
Google también está restando importancia a las advertencias de seguridad de que sus consejos médicos generados por IA pueden ser incorrectos. el guardián encontró.
Hughes dijo que las personas vulnerables estaban recibiendo “consejos peligrosamente incorrectos sobre salud mental”, incluidos “consejos que podrían impedir que las personas buscaran tratamiento, reforzar el estigma o la discriminación y, en el peor de los casos, poner vidas en riesgo”.
Y añadió: “La gente merece información segura, precisa y basada en evidencia, no tecnología no probada presentada con un barniz de confianza”.
La aplicación Guardian tiene una herramienta para enviar consejos sobre historias. Los mensajes están cifrados de extremo a extremo y ocultos en las actividades rutinarias que realiza cada aplicación móvil de Guardian. Esto impide que un observador sepa que usted se está comunicando con nosotros, y mucho menos lo que se está diciendo.
Si aún no tienes la aplicación Guardian, descárgala (iOS/Androide) y vaya al menú. Seleccione ‘Mensajes seguros’.
Correo electrónico (no seguro)
Si no necesitas un alto nivel de seguridad o confidencialidad, puedes enviar un correo electrónico andrew.gregory@theguardian.com
SecureDrop y otros métodos seguros
Si puedes usar la red Tor de forma segura sin ser observado o monitoreado, puedes enviar mensajes y documentos a Guardian a través de nuestro Plataforma SecureDrop.
Finalmente, nuestra guía sobre theguardian.com/tips enumera varias formas de contactarnos de manera segura y analiza los pros y los contras de cada una.
“,”image”:”https://i.guim.co.uk/img/media/ae475ccca7c94a4565f6b500a485479f08098383/788_0_4000_4000/4000. jpg?width=620&quality=85&auto=format&fit=max&s=45fd162100b331bf1618e364c5c69452″,”credit”:”Ilustración: Guardian Design / Rich Cousins”}”>
guía rápidaPóngase en contacto con Andrew Gregory acerca de esta historia
Espectáculo
Si tiene algo que compartir sobre esta historia, comuníquese con Andrew utilizando uno de los siguientes métodos.
La aplicación Guardian tiene una herramienta para enviar consejos sobre historias. Los mensajes están cifrados de extremo a extremo y ocultos en las actividades rutinarias que realiza cada aplicación móvil de Guardian. Esto impide que un observador sepa que usted se está comunicando con nosotros, y mucho menos lo que se está diciendo.
Si aún no tienes la aplicación Guardian, descárgala (iOS/Androide) y vaya al menú. Seleccione ‘Mensajes seguros’.
Correo electrónico (no seguro)
Si no necesitas un alto nivel de seguridad o confidencialidad, puedes enviar un correo electrónico andrew.gregory@theguardian.com
SecureDrop y otros métodos seguros
Si puedes utilizar la red Tor de forma segura sin ser observado o monitoreado, puedes enviar mensajes y documentos a Guardian a través de nuestro Plataforma SecureDrop.
Finalmente, nuestra guía sobre theguardian.com/tips enumera varias formas de contactarnos de manera segura y analiza los pros y los contras de cada una.
La comisión, que durará un año, reunirá pruebas sobre la intersección entre la IA y la salud mental y proporcionará un “espacio abierto” donde la experiencia de las personas con problemas de salud mental será “vista, registrada y comprendida”.
Rosie Weatherley, gerente de contenido de información de Mind, dijo que aunque la búsqueda de información sobre salud mental en Google “no era perfecta” antes de AI Overviews, en general funcionaba bien. Ella dijo: “Los usuarios tenían muchas posibilidades de hacer clic en un sitio de salud confiable que respondiera a sus preguntas y luego fuera más allá: ofreciendo matices, experiencias vividas, estudios de casos, citas, contexto social y un viaje continuo de apoyo.
“Las descripciones generales de IA han reemplazado esta riqueza con un resumen de aspecto clínico que da una ilusión de definición. Proporcionan al usuario más una forma de claridad (brevedad y lenguaje sencillo) mientras que proporcionan menos otra forma de claridad (confianza en la fuente de la información y cuánto confiar en ella). Es una compensación muy seductora, pero no responsable”.
Un portavoz de Google dijo: “Hemos invertido significativamente en la calidad de las resúmenes de IA, especialmente para temas como la salud, y la gran mayoría proporciona información precisa.
“Para consultas en las que nuestros sistemas identifican que una persona puede estar en peligro, trabajamos para mostrar líneas directas de crisis locales relevantes. Sin poder revisar los ejemplos mencionados, no podemos comentar sobre su exactitud”.
















