- Magentic Marketplace de Microsoft expone la incapacidad de los agentes de IA para actuar de forma independiente
- Los agentes comerciales influenciaron fácilmente a los agentes del lado del cliente durante transacciones simuladas
- Los agentes de IA se ralentizan significativamente cuando se les presentan demasiadas opciones
un nuevo microsoft El estudio ha planteado dudas sobre la idoneidad actual de los agentes de IA que operan sin supervisión humana total.
La empresa construyó recientemente un entorno sintético, el “Mercado magnético“, diseñado para observar cómo se desempeñan los agentes de IA en situaciones no supervisadas.
El proyecto tomó la forma de un modelo totalmente simulado. plataforma de comercio electrónico lo que permitió a los investigadores estudiar cómo se comportan los agentes de IA como clientes y empresas, con posibles resultados predecibles.
Probando los límites de los modelos de IA actuales
El proyecto incluyó 100 agentes del lado del cliente que interactuaron con 300 agentes del lado comercial, lo que brindó al equipo un entorno controlado para probar las habilidades de negociación y toma de decisiones de los agentes.
El código fuente del mercado es de código abierto; por lo tanto, otros investigadores pueden adoptarlo para reproducir experimentos o explorar nuevas variaciones.
Ece Kamar, CVP y director general del AI Frontiers Lab de Microsoft Research, señaló que esta investigación es vital para comprender cómo los agentes de IA colaboran y toman decisiones.
Las pruebas iniciales utilizaron una combinación de modelos líderes, incluidos GPT-4o, GPT-5 y Gemini-2.5-Flash.
Los resultados no fueron del todo inesperados, ya que varios modelos mostraron debilidades.
Los agentes del lado empresarial podrían fácilmente influenciar a los agentes del cliente para que seleccionen productos, revelando vulnerabilidades potenciales cuando los agentes interactúan en entornos competitivos.
La eficiencia de los agentes cayó drásticamente cuando se enfrentaron a demasiadas opciones, lo que abrumó su capacidad de atención y llevó a decisiones más lentas o menos precisas.
Los agentes de IA también tuvieron dificultades cuando se les pidió que trabajaran para lograr objetivos compartidos, ya que los modelos a menudo no estaban seguros de qué agente debía asumir qué rol, lo que reducía su efectividad en tareas conjuntas.
Sin embargo, su rendimiento mejoró sólo cuando se les proporcionaron instrucciones paso a paso.
“Podemos instruir a los modelos, como podemos decirles, paso a paso. Pero si estamos probando inherentemente sus capacidades de colaboración, esperaría que estos modelos tuvieran estas capacidades de forma predeterminada”, señaló Kamar.
Los resultados muestran herramientas de inteligencia artificial Todavía necesitan una guía humana sustancial para funcionar eficazmente en entornos de múltiples agentes.
Los resultados, que a menudo se promocionan como capaces de tomar decisiones independientes y colaborar, muestran que el comportamiento de los agentes no supervisados sigue siendo poco confiable, por lo que los humanos deben mejorar los mecanismos de coordinación y agregar salvaguardias contra la manipulación de la IA.
La simulación de Microsoft muestra que los agentes de IA están lejos de operar de forma independiente en escenarios competitivos o colaborativos y es posible que nunca alcancen una autonomía total.
Siga TechRadar en Google News y agréganos como fuente preferida para recibir noticias, reseñas y opiniones de nuestros expertos en sus feeds. ¡Asegúrate de hacer clic en el botón Seguir!
Y por supuesto también puedes Siga TechRadar en TikTok para noticias, reseñas, unboxings en forma de video y reciba actualizaciones periódicas de nuestra parte en WhatsApp también.














