Técnica

Jefe de Microsoft AI, Mustafa Suleyman, dice que las empresas deben dejar de llamar a la IA consciente

Foto del archivo: Mustafa Suleyman, el jefe de Microsoft AI ha dicho que las empresas de IA deberían dejar de alentar la idea de que sus modelos de IA son conscientes. | Crédito de la foto: Reuters

Mustafa Suleyman, el jefe de Microsoft AI ha dicho que las empresas de IA deberían dejar de alentar la idea de que sus modelos de IA son conscientes. En una publicación de blog, Suleyman expresó su preocupación por los crecientes casos de apegos poco saludables que los humanos estaban formando con sistemas de IA que conducen al “riesgo de psicosis”.

También dijo que estos casos no se limitan solo a las personas que ya están en riesgo de problemas de salud mental.

“Mi preocupación central es que muchas personas comenzarán a creer en la ilusión de AIS como entidades conscientes con tanta fuerza que pronto abogarán por los derechos de la IA, el bienestar modelo e incluso la ciudadanía de IA. Este desarrollo será un giro peligroso en el progreso de la IA y merece nuestra atención inmediata”, señaló.

Suleyman llamó a la ilusión que los sistemas de IA sentían, pensando seres, la IA aparentemente consciente solo porque imitaban bien las respuestas humanas.

También agregó que la industria necesita colaborar en las mejores prácticas para implementar barandillas para evitar esta percepción de conciencia o “refutar esa percepción si un usuario lo desarrolla”.

AI Companions, que son una categoría completamente nueva que necesitan estas barandillas con urgencia, dijo.

Aunque las empresas de IA como OpenAI han repetido que estos casos extremos de psicosis causados por IA eran raros y una pequeña fracción de su base de usuarios, ha habido múltiples incidentes que han llamado la atención sobre el comportamiento de los chatbots de IA.

Después del lanzamiento de GPT-5 el 7 de agosto, hubo una gran reacción después de que los usuarios se quejaron de que GPT-4O estaba desaprobado abruptamente. Una fracción considerable de estos usuarios protestantes había formado vínculos emocionales al modelo AI.

Operai se vio obligado a traer el modelo AI de regreso después de la reacción.

Fuente

Related Articles

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Back to top button