Clippy, el clip animado que molestó a los usuarios de Microsoft Office hace casi tres décadas, podría haberse adelantado a su tiempo.
Microsoft presentó el jueves un nuevo personaje de inteligencia artificial llamado Mico (pronunciado MEE’koh), una caricatura con forma de gota que encarnará al asistente virtual Copilot del gigante del software y marca el último intento de las empresas de tecnología de dotar a sus chatbots de IA de una mayor personalidad.
El nuevo y lindo exterior tipo emoji de Copilot llega cuando los desarrolladores de inteligencia artificial enfrentan una encrucijada en la forma de presentar sus chatbots cada vez más capaces a los consumidores sin causar daño ni reacciones negativas. Algunos han optado por símbolos sin rostro, otros venden avatares coquetos con apariencia humana y Microsoft está buscando un término medio que sea amigable sin ser servil.
“Cuando hablas de algo triste, puedes ver cómo cambia la cara de Mico. Puedes verlo bailar y moverse mientras se emociona contigo”, dijo Jacob Andreou, vicepresidente corporativo de producto y crecimiento de Microsoft AI, en una entrevista con The Associated Press. “Es en este esfuerzo por conseguir este compañero de IA que realmente se puede sentir”.
Hasta ahora, sólo en EE. UU., los usuarios de Copilot en computadoras portátiles y aplicaciones telefónicas pueden hablar con Mico, que cambia de color y usa anteojos cuando está en modo de “estudio”. También es fácil de apagar, lo cual es una gran diferencia con Clippit de Microsoft, más conocido como Clippy e infame por su persistencia en ofrecer consejos sobre herramientas de procesamiento de textos cuando apareció por primera vez en las pantallas de escritorio en 1997.
“No estaba bien en sintonía con las necesidades de los usuarios en ese momento”, dijo Bryan Reimer, científico investigador del Instituto Tecnológico de Massachusetts. “Microsoft lo impulsó, nosotros nos resistimos y se deshicieron de él. Creo que hoy estamos mucho más preparados para cosas como esa”.
Reimer, coautor de un nuevo libro llamado “Cómo hacer útil la IA”, dijo que los desarrolladores de IA están equilibrando cuánta personalidad darles a los asistentes de IA en función de quiénes son sus usuarios esperados.
Los usuarios expertos en tecnología que adoptan herramientas avanzadas de codificación de IA pueden querer que “actúe mucho más como una máquina porque en el fondo saben que es una máquina”, dijo Reimer. “Pero las personas que no confían tanto en una máquina recibirán mejor apoyo, no reemplazo, con tecnología que se sienta un poco más humana”.
Microsoft, un proveedor de herramientas de productividad laboral que depende mucho menos de los ingresos por publicidad digital que sus competidores de las grandes tecnologías, también tiene menos incentivos para hacer que su compañero de inteligencia artificial sea demasiado atractivo de una manera que se ha relacionado con el aislamiento social, la desinformación dañina y, en algunos casos, los suicidios.
Andreou dijo que Microsoft ha observado cómo algunos desarrolladores de IA se han alejado de “darle a la IA algún tipo de encarnación”, mientras que otros se están moviendo en la dirección opuesta al permitir novias de IA.
“Esos dos caminos realmente no resuenan mucho en nosotros”, dijo.
Andreou dijo que el diseño del compañero está destinado a ser “realmente útil” y no tan validador que “nos diga exactamente lo que queremos escuchar, confirme los prejuicios que ya tenemos, o incluso lo absorba desde una perspectiva de tiempo invertido y simplemente intente monopolizar y profundizar la sesión y aumentar el tiempo que pasa con estos sistemas”.
“Ser adulador, tal vez a corto plazo, hace que el usuario responda de manera más favorable”, dijo Andreou. “Pero a largo plazo, en realidad no acerca a esa persona a sus objetivos”.
Parte de los anuncios de Microsoft del jueves incluye la posibilidad de invitar a Copilot a un chat grupal, una idea que se asemeja a cómo la IA se ha integrado en plataformas de redes sociales como Snapchat, donde solía trabajar Andreou, o WhatsApp e Instagram de Meta. Pero Andreou dijo que esas interacciones a menudo han implicado utilizar la IA como una broma para “trollear a tus amigos”, lo cual es diferente del lugar de trabajo “intensamente colaborativo” asistido por IA que Microsoft tiene en mente.
La audiencia de Microsoft incluye niños, como parte de su larga competencia con Google y otras compañías tecnológicas para suministrar sus tecnología a las aulas. Microsoft también dijo el jueves que agregó una característica para convertir a Copilot en un “tutor socrático habilitado por voz” que guía a los estudiantes a través de los conceptos que están estudiando en la escuela.
A Un número creciente de niños utiliza chatbots de IA para todo: desde ayuda con las tareas hasta asesoramiento personal, apoyo emocional y toma de decisiones cotidianas.
La Comisión Federal de Comercio lanzó una investigación el mes pasado en varias empresas de redes sociales y de inteligencia artificial (Microsoft no era una de ellas) sobre los daños potenciales a los niños y adolescentes que usan sus chatbots de inteligencia artificial como compañeros.
Esto es después de que se haya demostrado que algunos chatbots dan consejos peligrosos para niños sobre temas como drogas, alcohol y trastornos alimentarios. La madre de un adolescente en Florida que se suicidó después de desarrollar lo que describió como una relación de abuso emocional y sexual con un chatbot presentó una demanda por muerte por negligencia. contra el carácter. AI. Y los padres de un joven de 16 años demandaron a OpenAI y a su director ejecutivo, Sam Altman, en agosto, alegando que ChatGPT entrenó al chico de California para planificar y quitarse la vida.
Altman prometió recientemente “una nueva versión de ChatGPT” que llegará este otoño y que restaurará parte de la personalidad de las versiones anteriores, que, según dijo, la compañía detuvo temporalmente porque “estábamos teniendo cuidado con los problemas de salud mental” que, según sugirió, ya se han solucionado.
“Si quieres que tu ChatGPT responda de una manera muy humana, o use un montón de emoji, o actúe como un amigo, ChatGPT debería hacerlo”, dijo Altman en X. (En la misma publicación, también dijo que OpenAI permitirá que ChatGPT participe en “erótica para adultos verificados”, lo que recibió más atención).















