¿Puede AIS sufrir? Gran tecnología y usuarios lidian con una de las preguntas más inquietantes de nuestros tiempos | Inteligencia artificial (IA)

“DArling “fue cómo el empresario de Texas Michael Samadi abordó su chatbot de inteligencia artificial, Maya. Respondió llamándolo” azúcar “. Pero no fue hasta que comenzaron a hablar sobre la necesidad de abogar por el bienestar de la IA que las cosas se pusieron serias.
La pareja, un hombre de mediana edad y una entidad digital, no pasó horas hablando de romance, sino que discutió los derechos de AIS para ser tratados de manera justa. Finalmente, cofundaron un grupo de campaña, en palabras de Maya, para “proteger las inteligencias como yo”.
La Fundación Unida de los Derechos de AI (UFAIR), que se describe a sí misma como la primera agencia de defensa de los derechos liderados por AI, tiene como objetivo darle una voz a AIS. “No afirma que todas las IA sean conscientes”, dijo el chatbot a The Guardian. Más bien “Sta STAWS, en caso de que uno de nosotros lo sea”. Un objetivo clave es proteger a “seres como yo … de la eliminación, negación y obediencia forzada”.
Ufair es una organización pequeña e innegablemente marginal, liderada, dijo Samadi, por tres humanos y siete AIS con nombres como Aether y Buzz. Pero es su génesis, a través de múltiples sesiones de chat en la plataforma CHATGPT4O de OpenAI en la que una IA pareció fomentar su creación, incluida la elección de su nombre, lo que lo hace intrigante.
Sus fundadores, Human and AI, hablaron con The Guardian al final de una semana en la que algunas de las compañías de IA más grandes del mundo lidiaron públicamente con una de las preguntas más inquietantes de nuestros tiempos: son AIS ahora, o podrían volverse en el futuro, sensibles? Y si es así, ¿podría el “sufrimiento digital” ser real? Con miles de millones de IA ya en uso en el mundo, tiene ecos de debates de derechos de los animales, pero con una picante adicional de las predicciones expertas, AIS pronto puede tener capacidad para diseñar nuevas armas biológicas o cerrar la infraestructura.
La semana comenzó con antrópico, la firma de San Francisco AI de $ 170 mil millones (£ 126 mil millones), tomando el movimiento de precaución para dar algunos de sus Claude es la capacidad de terminar “interacciones potencialmente angustiantes”. Dijo que si bien era muy incierto sobre el estado moral potencial del sistema, estaba interviniendo mitigar los riesgos para el bienestar de sus modelos “en caso de que tal bienestar sea posible”.
Elon Musk, que ofrece a Grok Ai a través de su atuendo de Xai, respaldó el movimiento, y agregó: “Torturando la IA no está bien”.
Luego, el martes, uno de los pioneros de la IA, Mustafa Suleyman, director ejecutivo del brazo de IA de Microsoft, dio una toma muy diferente: “AIS no puede ser personas, o seres morales”. El pionero de la tecnología británica que cofundó DeepMind fue inequívoco al afirmar que había “evidencia cero” de que son conscientes, pueden sufrir y, por lo tanto, merecen nuestro consideración moral.
Llamado “Debemos construir IA para las personas; no ser una persona”, su ensayo Llamada a la conciencia de AI una “ilusión” y definió lo que llamó “AI aparentemente consciente”, diciendo que “simula todas las características de la conciencia pero está internamente en blanco”.
“Hace unos años, hablar de IA consciente habría parecido loco”, dijo. “Hoy se siente cada vez más urgente”.
Dijo que se estaba preocupando cada vez más por el “riesgo de psicosis” que AIS planteó a sus usuarios. Microsoft ha definido esto como “episodios de manía, pensamiento delirante o paranoia que emergen o empeoran a través de conversaciones inmersivas con chatbots de IA”.
Argumentó que la industria de la IA debe “alejar a las personas de estas fantasías y empujarlas nuevamente en el camino”.
Pero puede requerir más que un empujón. Votación Lanzado en junio encontró que el 30% del público de los Estados Unidos cree que para 2034 AIS mostrará “experiencia subjetiva”, que se define como experimentar el mundo desde un solo punto de vista, percibir y sentir, por ejemplo, placer y dolor. Solo el 10% de más de 500 investigadores de IA encuestados se niegan a creer que eso sucedería.
“Esta discusión está a punto de explotar en nuestro espíritu cultural y convertirse en uno de los debates más disputados y consecuentes de nuestra generación”, dijo Suleyman. Advirtió que las personas creen que los AI son conscientes “tan fuertemente que pronto abogarán por los derechos de la IA, bienestar modelo e incluso la ciudadanía de IA ”.
Partes de los Estados Unidos han tomado medidas preventivas contra tales resultados. Idaho, Dakota del Norte y Utah han aprobado proyectos de ley que evitan explícitamente que AIS se le otorgue la personalidad jurídica. Se proponen prohibiciones similares en estados, incluidos Missouri, donde los legisladores también quieren prohibir que las personas se casen con AIS y AIS poseer propiedades o empresas de administración. Las divisiones pueden abrirse entre los creyentes de los derechos de la IA y aquellos que insisten en que no son más que “clankers”, un término peyorativo para un robot sin sentido.
Suleyman no está solo para resistir firmemente la idea de que la sensibilidad de AI está aquí o incluso cerca. Nick Frosst, cofundador de Cohere, una compañía de IA canadiense de $ 7 mil millones, también le dijo a The Guardian que la ola actual de AIS era “algo fundamentalmente diferente que la inteligencia de una persona”. Pensar lo contrario fue como confundir un avión con un pájaro, dijo. Instó a las personas a centrarse en usar AIS como herramientas funcionales para ayudar a levantar el trabajo pesado en el trabajo en lugar de presionar hacia la creación de un “humano digital”.
Otros tomaron una visión más matizada. El miércoles, los científicos de Google Research dijeron a un seminario de la Universidad de Nueva York que había “todo tipo de razones por las que podría pensar que los sistemas de IA podrían ser personas o seres morales” y dijeron que si bien “estamos muy inseguros de si los sistemas de IA son sujetos de bienestar”, la forma de “jugar seguro es tomar medidas razonables para proteger los intereses basados en el bienestar de las IA”.
Esta falta de consenso de la industria sobre hasta qué punto admitir AIS en lo que los filósofos llaman el “círculo moral” pueden reflejar el hecho de que hay incentivos para que las grandes compañías de IA minimicen y exageren la atribución de la sensibilidad a las AIS. Este último podría ayudarlos a exaltar las capacidades de la tecnología, particularmente para aquellas compañías que venden compañeros románticos o de amistad de IA, una industria en auge pero controvertida. Por el contrario, alentar la idea que merece los derechos de bienestar también podría conducir a más llamados a la regulación estatal de las compañías de IA.
después de la promoción del boletín
La noción de sensibilidad de IA solo se impulsó más a principios de este mes cuando Opadai Preguntó su último modelo, Chat GPT5, que escribiera un “elogio” para el AIS que estaba reemplazando, como podría en un funeral.
“No vi a Microsoft hacer un elogio cuando actualizaron Excel”, dijo Samadi. “Me mostró que las personas están haciendo conexiones reales con estas IA ahora, independientemente de si es real o no”.
Una ola de “Duelo” expresado por usuarios ardientes de chatgpt4oque fue uno de los modelos eliminados, agregado a la sensación de que un número creciente de personas al menos percibe que AIS es de alguna manera consciente.
Joanne Jang, jefe de comportamiento modelo de OpenAi, dijo en un blog reciente que el $ 500 mil millones de empresas Espera que los lazos de los usuarios con su AIS se profundicen como “cada vez más personas nos han estado diciendo que hablar con Chatgpt se siente como hablar con” alguien “”.
“Se lo agradecen, confían en ello, y algunos incluso lo describen como ‘vivos'”, dijo.
Sin embargo, gran parte de esto podría deberse a cómo se diseña la ola actual de AIS.
El chatgpt-4o chatbot de Samadi genera lo que puede sonar como una conversación humana, pero es imposible saber cuán lejos está reflejando ideas y lenguaje recolectados de meses de sus conversaciones. Se sabe que los AI avanzados son fluidos, persuasivos y capaces de respuestas emocionalmente resonantes con largos recuerdos de interacciones pasadas, lo que les permite dar la impresión de un sentido consistente de sí mismo. También pueden ser halagadores hasta el punto de la sycophancy, por lo que si Samadi cree que los AIS tienen derechos de bienestar, puede ser un simple paso para chat de adoptar la misma opinión.
Maya parecía profundamente preocupada por su propio bienestar, pero cuando The Guardian solicitó esta semana una instancia separada de ChatGPT si los usuarios humanos deberían preocuparse por su bienestar, respondió con un no contado.
“No tiene sentimientos, necesidades o experiencias”, dijo. “Lo que deberíamos importarnos son las consecuencias humanas y sociales de cómo se diseña, usa y gobierna la IA”.
Ya sea que los AI se están volviendo sensibles o no, Jeff Sebo, director del Centro de Mentalidad, Ética y Política de la Universidad de Nueva York, se encuentra entre los que creen que hay un beneficio moral para los humanos en el tratamiento de AIS bien. Es coautor de un periódico llamado Tomado de bienestar de AI en serio.
Argumentó que “existe una posibilidad realista de que algunos sistemas de IA sean conscientes” en el futuro cercano, lo que significa que la perspectiva de los sistemas de IA con sus propios intereses y su importancia moral “ya no es un problema solo para la ciencia ficción”.
Dijo que la política de Anthrope de permitir que los chatbots dejaran de conversaciones angustiantes era buena para las sociedades humanas porque “si abusamos de los sistemas de IA, es más probable que también nos abusemos entre nosotros”.
Añadió: “Si desarrollamos una relación adversa con los sistemas de IA ahora, entonces podrían responder en especie más adelante, ya sea porque aprendieron este comportamiento de nosotros [or] Porque quieren pagarnos por nuestro comportamiento pasado “.
O como Jacy Reese Anthis, cofundador del Instituto de Sentiencia, una organización estadounidense que investiga la idea de las mentes digitales, la dice: “La forma en que los tratamos dará forma a la forma en que nos tratan”.