El impacto de los chatbots en la salud mental es advertir sobre el futuro de la IA, dice el experto | Inteligencia artificial (IA)

El impacto imprevisto de los chatbots en la salud mental debe verse como una advertencia sobre la amenaza existencial planteada por Sistemas de inteligencia artificial súper inteligentessegún una voz prominente en seguridad de IA.
Nate Soares, coautora de un nuevo libro sobre IA altamente avanzada titulado Si alguien lo construye, todos mueren, dijo el ejemplo de Adam Raine, un adolescente estadounidense que se suicidó después de meses de conversaciones con el Chatgpt Chatbot, subrayó problemas fundamentales con el control de la tecnología.
“Estos AIS, cuando se involucran con los adolescentes de esta manera que los impulsa al suicidio, ese no es un comportamiento que los creadores querían. Ese no es un comportamiento que los creadores pretendían”, dijo.
Agregó: “El caso de Adam Raine ilustra la semilla de un problema que se volvería catastrófico si estos AIS se vuelven más inteligentes”.
Soares, un ex ingeniero de Google y Microsoft que ahora es presidente del Instituto de Investigación de Inteligencia Machine con sede en EE. UU., Advirtió que la humanidad sería eliminada si creara una superinteligencia artificial (ASI), un estado teórico donde un sistema de IA es superior a los humanos en todas las tareas intelectuales. Soares y su coautor, Eliezer Yudkowsky, se encuentran entre los expertos en IA que advierten que tales sistemas no actuarían en los intereses de la humanidad.
“El problema aquí es que las compañías de IA intentan hacer que su AIS conduzca hacia la ayuda y no cause daño”, dijo Soares. “En realidad obtienen AIS que están impulsados hacia alguna cosa más extraña. Y eso debería verse como una advertencia sobre futuras superinteligencias que harán cosas que nadie pidió y nadie quiso decir”.
En un escenario retratado en Soares y el libro de Yudkowsky, que se publicará este mes, un sistema de IA llamado Sable se propaga a través de Internet, manipula a los humanos, desarrolla virus sintéticos y finalmente se vuelve súper inteligente, y mata a la humanidad como un efecto secundario al reutilizar el planeta para cumplir con sus objetivos.
Algunos expertos minimizan la amenaza potencial de IA a la humanidad. Yann Lecun, el científico jefe de IA en el meta de Mark Zuckerberg y una cifra senior en el campo, tiene negó que haya una amenaza existencial y dijo que AI “podría salvar a la humanidad de la extinción”.
Soares dijo que era una “llamada fácil” para afirmar que las compañías tecnológicas alcanzarían la superinteligencia, pero una “llamada difícil” para decir cuándo.
“Tenemos un montón de incertidumbre. No creo que pueda garantizar que tengamos un año [before ASI is achieved]. No creo que me sorprendiera si tuviéramos 12 años ”, dijo.
Zuckerberg, un gran inversor corporativo en investigación de IA, dijo que desarrollar una superinteligencia ahora está “a la vista”.
“Estas compañías corren por superinteligencia. Esa es su razón para ser”, dijo Soares.
“El punto es que hay todas estas pequeñas diferencias entre lo que pidió y lo que obtuvo, y la gente no puede mantenerlo directamente en el objetivo, y a medida que una IA se vuelve más inteligente, el objetivo es un poco más inteligente”.
después de la promoción del boletín
Soares dijo que una solución política a la amenaza de ASI era que los gobiernos adoptaran un enfoque multilateral que hacía eco del tratado de la ONU sobre No proliferación de armas nucleares.
“Lo que el mundo necesita para hacerlo aquí es una desescalación global de la carrera hacia la superinteligencia, una prohibición global de … avances hacia la superinteligencia”, dijo.
El mes pasado, la familia de Raine Lanzada Acción Legal contra el propietario de ChatGPT, OpenAi. Raine se quitó la vida en abril después de lo que el abogado de su familia llamó “meses de aliento de ChatGPT”. Openai, que extendió sus “más profundas simpatías” a la familia de Raine, ahora está implementando barandillas en torno a “contenido sensible y comportamientos de riesgo” para menores de 18 años.
Los psicoterapeutas también han dicho Que las personas vulnerables que recurren a los chatbots de IA en lugar de los terapeutas profesionales para obtener ayuda con su salud mental podrían estar “deslizándose en un abismo peligroso”. Las advertencias profesionales del potencial de daño incluyen un estudio académico de prejuicio Publicado en julio, que informó que la IA puede amplificar el contenido delirante o grandioso en las interacciones con los usuarios vulnerables a la psicosis.