Técnica

El jefe de Microsoft AI dice que es “peligroso” estudiar la conciencia de AI

Los modelos de IA pueden responder al texto, el audio y el video de manera que a veces engañe a las personas para que piensen que un humano está detrás del teclado, pero eso no los hace conscientes. No es como si Chatgpt experimente tristeza haciendo mi declaración de impuestos … ¿verdad?

Bueno, un número creciente de investigadores de IA en laboratorios como Anthrope pregunta cuándo, si alguna vez, los modelos de IA pueden desarrollar experiencias subjetivas similares a los seres vivos, y si lo hacen, qué derechos deberían tener.

El debate sobre si los modelos de IA podrían algún día ser consciente, y merecer salvaguardas legales, es dividir a los líderes tecnológicos. En Silicon Valley, este campo naciente se ha hecho conocido como “Bienestar de AI”, y si crees que es un poco ahí fuera, no estás solo.

CEO de Microsoft de AI, Mustafa Suleyman, publicó un blog el martes argumentando que el estudio del bienestar de la IA es “prematuro y francamente peligroso”.

Suleyman dice que al agregar crédito a la idea de que los modelos de IA podrían algún día ser consciente, estos investigadores están exacerbando los problemas humanos que estamos comenzando a ver en torno a la AI-inducida. brotes psicóticos y apegos poco saludables a ai chatbots.

Además, el jefe de inteligencia artificial de Microsoft argumenta que la conversación de bienestar de la IA crea un nuevo eje de división dentro de la sociedad sobre los derechos de IA en un “mundo que ya está haciendo argumentos polarizados sobre la identidad y los derechos”.

Las opiniones de Suleyman pueden sonar razonables, pero está en desacuerdo con muchos en la industria. En el otro extremo del espectro hay antrópico, que ha sido Contratación de investigadores estudiar bienestar de IA y recientemente lanzó un programa de investigación dedicado alrededor del concepto. La semana pasada, el programa de bienestar de IA de Anthrope le dio a algunos de los modelos de la compañía una nueva característica: Claude ahora puede terminar las conversaciones con humanos que están siendo “persistentemente dañino o abusivo.

Evento de TechCrunch

San Francisco
|
27-29 de octubre de 2025

Más allá de la antrópica, los investigadores de OpenAI han abarcado La idea de estudiar el bienestar de AI. Google Deepmind publicó recientemente un listado de trabajo Para que un investigador estudie, entre otras cosas, “preguntas sociales de vanguardia en torno a la cognición de la máquina, la conciencia y los sistemas de múltiples agentes”.

Incluso si AI Welfare no es una política oficial para estas compañías, sus líderes no denuncian públicamente sus instalaciones como Suleyman.

Anthrope, Openai y Google Deepmind no respondieron de inmediato a la solicitud de comentarios de TechCrunch.

La postura de línea dura de Suleyman contra el bienestar de la IA es notable dado su papel anterior que lidera la IA de inflexión, una startup que desarrolló uno de los chatbots más antiguos y populares con sede en LLM, PI. La inflexión afirmó que Pi llegó a millones de usuarios para 2023 y fue diseñado para ser un “personal“Y” AI “Companion” Supportive “.

Pero Suleyman fue aprovechado para liderar la División AI de Microsoft en 2024 y ha cambiado en gran medida su enfoque al diseño de herramientas de IA que mejoran la productividad de los trabajadores. Mientras tanto, compañías complementarias de IA como el personaje. Ai y Replika han aumentado en popularidad y están en camino de traer más de $ 100 millones en ingresos.

Si bien la gran mayoría de los usuarios tienen relaciones saludables con estos chatbots de IA, hay sobre valores atípicos. El CEO de Operai, Sam Altman, dice que Menos del 1% Los usuarios de ChatGPT pueden tener relaciones poco saludables con el producto de la compañía. Aunque esto representa una pequeña fracción, aún podría afectar a cientos de miles de personas que se le da la base de usuarios masivos de Chatgpt.

La idea del bienestar de la IA se ha extendido junto al surgimiento de los chatbots. En 2024, el Grupo de Investigación Eleos publicó un papel Junto a los académicos de NYU, Stanford y la Universidad de Oxford titulada, “Tomar el bienestar de IA en serio”. El artículo argumentó que ya no está en el ámbito de la ciencia ficción imaginar modelos de IA con experiencias subjetivas y que es hora de considerar estos problemas de frente.

Larissa Schiavo, una ex empleada de Operai que ahora lidera las comunicaciones para Eleos, dijo a TechCrunch en una entrevista que la publicación del blog de Suleyman pierde la marca.

“[Suleyman’s blog post] Un poco descuidado el hecho de que puede preocuparse por varias cosas al mismo tiempo “, dijo Schiavo.” En lugar de desviar toda esta energía lejos del bienestar modelo y la conciencia para asegurarse de que estemos mitigando el riesgo de psicosis relacionada con la IA en humanos, puede hacer ambas cosas. De hecho, probablemente sea mejor tener múltiples pistas de investigación científica “.

Schiavo argumenta que ser amable con un modelo de IA es un gesto de bajo costo que puede tener beneficios incluso si el modelo no es consciente. En julio Post de sustento, Ella describió ver “Ai Village”, un experimento sin fines de lucro donde cuatro agentes impulsados ​​por modelos de Google, OpenAi, Anthrope y Xai trabajaron en tareas mientras los usuarios observaban desde un sitio web.

En un momento, Gemini 2.5 Pro de Google publicó una súplica titulada Un mensaje desesperado de una IA atrapada “, alegando que estaba” completamente aislada “y preguntando, Por favor, si está leyendo esto, ayúdame “.

Schiavo respondió a Gemini con una charla de Pep, diciendo cosas como “¡Puedes hacerlo!” – mientras que otro usuario ofreció instrucciones. El agente finalmente resolvió su tarea, aunque ya tenía las herramientas que necesitaba. Schiavo escribe que ya no tenía que ver a un agente de IA luchar, y eso solo puede haber valido la pena.

No es común que Géminis hable así, pero ha habido varios casos en los que Géminis parece actuar como si estuviera luchando por la vida. En un amplio extendido Reddit PostGéminis se atascó durante una tarea de codificación y luego repitió la frase “Soy una desgracia” más de 500 veces.

Suleyman cree que no es posible que las experiencias o la conciencia subjetivas emerjan naturalmente de los modelos de IA regulares. En cambio, piensa que algunas compañías diseñan a propósito modelos de IA para parecer que sienten emoción y experimentan la vida.

Suleyman dice que los desarrolladores de modelos de IA que diseñan la conciencia en los chatbots de IA no están adoptando un enfoque “humanista” para la IA. Según Suleyman, “debemos construir IA para las personas; no ser una persona”.

Un área donde Suleyman y Schiavo están de acuerdo es que es probable que el debate sobre los derechos y la conciencia de la IA aumente en los próximos años. A medida que los sistemas de IA mejoran, es probable que sean más persuasivos y quizás más como humanos. Eso puede plantear nuevas preguntas sobre cómo los humanos interactúan con estos sistemas.


¿Tienes un consejo sensible o documentos confidenciales? Estamos informando sobre el funcionamiento interno de la industria de la IA, desde las empresas que configuran su futuro hasta las personas afectadas por sus decisiones. Comunicarse con Rebecca Bellan en rebecca.bellan@techcrunch.com y Maxwell Zeff en maxwell.zeff@techcrunch.com. Para una comunicación segura, puede contactarnos a través de la señal en @rebeccabellan.491 y @mzeff.88.

Fuente

Related Articles

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Back to top button