La IA que parece consciente está llegando, y ese es un gran problema, dice el CEO de Microsoft AI

- El CEO de Microsoft AI, Mustafa Suleyman advierte que los chatbots de IA podrían imitar efectivamente la conciencia.
- Esto sería una ilusión, pero las personas que forman vínculos emocionales con la IA podrían ser un gran problema.
- Suleyman dice que es un error describir la IA como si tuviera sentimientos o conciencia, con serias consecuencias potenciales.
Las compañías de IA que ensalzan sus creaciones pueden hacer que los algoritmos sofisticados suenen vivos y conscientes. No hay evidencia de que sea realmente el caso, pero Microsoft AI CEO Entnialist Suleyman es advertencia que incluso la creencia alentadora en la IA consciente podría tener graves consecuencias.
Suleyman argumenta que lo que él llama “AI aparentemente consciente” (SCAI) pronto podría actuar y sonar tan convincentemente vivo que un número creciente de usuarios no sabrá dónde termina la ilusión y comienza la realidad.
Agrega que la inteligencia artificial se está volviendo rápidamente lo suficientemente persuasiva como para engañar a las personas para que crea que es sensible. Puede imitar los signos externos de conciencia, como la memoria, la espejo emocional e incluso la empatía aparente, de una manera que hace que las personas quieran tratarlos como seres sintientes. Y cuando eso sucede, dice, las cosas se vuelven desordenadas.
“La llegada de IA aparentemente consciente es inevitable y desagradable”, escribe Suleyman. “En cambio, necesitamos una visión para la IA que pueda cumplir su potencial como un compañero útil sin caer presa de sus ilusiones”.
Aunque esto puede no parecer un problema para la persona promedio que solo quiere que la IA ayude a escribir correos electrónicos o planificar la cena, Suleyman afirma que sería un problema social. Los humanos no siempre son buenos para decir cuándo algo es auténtico o performativo. La evolución y la educación han preparado a la mayoría de nosotros para creer que algo que parece escuchar, comprender y responder es tan consciente como nosotros.
La IA podría verificar todas esas casillas sin ser sensibles, engañándonos en lo que se conoce como ‘psicosis de IA’. Parte del problema puede ser que ‘AI’, como las corporaciones se refieren en este momento, usa el mismo nombre, pero no tiene nada que ver con las máquinas inteligentes reales conscientes de sí mismas como se muestra en la ciencia ficción durante los últimos cien años.
Suleyman cita un número creciente de casos en los que los usuarios forman creencias delirantes después de interacciones extendidas con chatbots. A partir de eso, pinta una visión distópica de una época en la que se engañan suficientes a las personas para abogar por la ciudadanía de IA e ignorar preguntas más urgentes sobre problemas reales en torno a la tecnología.
“En pocas palabras, mi preocupación central es que muchas personas comenzarán a creer en la ilusión de AIS como entidades conscientes tan fuertemente que pronto abogarán por los derechos de la IA, el bienestar modelo e incluso la ciudadanía de IA”, escribe Suleyman. “Este desarrollo será un giro peligroso en el progreso de la IA y merece nuestra atención inmediata”.
Por mucho que parezca un tipo de preocupación de ciencia ficción exagerada, Suleyman cree que es un problema con el que aún no estamos listos para lidiar. Él predice que los sistemas SCAI que utilizan modelos de lenguaje grandes combinados con habla expresiva, memoria e historial de chat podrían comenzar a surgir en unos pocos años. Y no solo vendrán de gigantes tecnológicos con presupuestos de investigación de miles de millones de dólares, sino de cualquier persona con una API y un buen aviso o dos.
AI incómoda
Suleyman no está pidiendo una prohibición de la IA. Pero está instando a la industria de la IA a evitar el lenguaje que alimente la ilusión de la conciencia de la máquina. No quiere que las empresas antropomorfen sus chatbots o sugieran que el producto realmente comprenda o se preocupa por las personas.
Es un momento notable para Suleyman, quien cofundó DeepMind e Inflection AI. Su trabajo en inflexión condujo específicamente a una IA chatbot Enfatizar la empatía y la compañía simulados y su trabajo en Microsoft en torno a Copilot también ha llevado a los avances en su imitación de inteligencia emocional.
Sin embargo, ha decidido trazar una línea clara entre la inteligencia emocional útil y la posible manipulación emocional. Y quiere que la gente recuerde que los productos de IA hoy son realmente modelos inteligentes de reconocimiento de patrones con buenas relaciones públicas.
“Así como debemos producir una IA que priorice el compromiso con los humanos y las interacciones del mundo real en nuestro mundo físico y humano, debemos construir una IA que solo se presente como una IA, que maximiza la utilidad al tiempo que minimiza los marcadores de conciencia”, escribe Suleyman.
“En lugar de una simulación de conciencia, debemos centrarnos en crear una IA que evite esos rasgos, que no afirman tener experiencias, sentimientos o emociones como la vergüenza, la culpa, los celos, el deseo de competir, etc.
Suleyman insta a las barandillas a prevenir los problemas sociales nacidos de las personas que se unen emocionalmente con IA. El verdadero peligro de la IA avanzada no es que las máquinas se despertarán, sino que podríamos olvidar que no lo han hecho.