Hasta hace poco, la práctica de construir agentes de IA era un poco como entrenar a un corredor de larga distancia con una memoria de treinta segundos.
Sí, podrías darle a tus modelos de IA herramientas e instrucciones, pero después de unas pocas docenas de interacciones (varias vueltas alrededor de la pista, para ampliar nuestra analogía con las carreras) inevitablemente perdería el contexto y comenzaría a alucinar.
Con Las últimas actualizaciones de OpenAI para tu API de respuestas – la interfaz de programación de aplicaciones que permite a los desarrolladores de la plataforma OpenAI acceder a múltiples herramientas de agentes, como búsqueda web y búsqueda de archivos con una sola llamada – la compañía está indicando que la era del agente limitado está llegando a su fin.
Las actualizaciones anunciadas hoy incluyen compresión del lado del servidor, contenedores de shell alojados e implementación del nuevo “Habilidades“patrón para agentes.
Con estas tres actualizaciones clave, OpenAI les está brindando a los agentes un escritorio, una terminal y una memoria permanentes que no desaparecen y deberían ayudar a los agentes a evolucionar aún más hasta convertirse en trabajadores digitales confiables y a largo plazo.
Tecnología: superar la ‘amnesia contextual’
El obstáculo técnico más importante para los agentes autónomos siempre ha sido el “desorden” de tareas de larga duración. Cada vez que un agente invoca una herramienta o ejecuta un script, el historial de conversaciones crece.
Finalmente, el modelo alcanza su límite de tokens y el desarrollador se ve obligado a truncar el historial, eliminando a menudo el “razonamiento” que el agente necesita para completar el trabajo.
La respuesta de OpenAI es la compresión del lado del servidor. A diferencia del simple truncamiento, la compresión permite que los agentes funcionen durante horas o incluso días.
Datos iniciales de la plataforma de comercio electrónico Triple Ballena sugiere Este es un gran avance en la estabilidad: su agente, Moby, navegó con éxito en una sesión que involucró 5 millones de tokens y 150 llamadas a herramientas sin una disminución en la precisión.
En términos prácticos, esto significa que el modelo puede “resumir” sus propias acciones pasadas en un estado comprimido, manteniendo vivo el contexto esencial y eliminando el ruido. Transforma el modelo de un asistente olvidado a un proceso de sistema persistente.
Zonas de pruebas en la nube administradas
La introducción de la herramienta Shell lleva a OpenAI al dominio de la informática gestionada. Los desarrolladores ahora pueden elegir container_auto, que aprovisiona un entorno Debian 12 alojado en OpenAI.
Esto no es sólo un intérprete de código: le brinda a cada agente su propio entorno de terminal completo precargado con:
Tiempos de ejecución nativos incluidos Python 3.11, Node.js 22, Java 17, Go 1.23 y Ruby 3.1.
Almacenamiento persistente a través de
/mnt/datapermitiendo a los agentes generar, guardar y descargar artefactos.Capacidades de red que permiten a los agentes acceder a Internet para instalar bibliotecas o interactuar con API de terceros.
El Hosted Shell y su persistencia /mnt/data El almacenamiento proporciona un entorno administrado donde los agentes pueden realizar transformaciones de datos complejas utilizando Python o Java sin necesidad de que el equipo cree y mantenga middleware ETL (Extracción, Transformación, Carga) personalizado para cada proyecto de IA.
Al aprovechar estos contenedores alojados, los ingenieros de datos pueden implementar tareas de procesamiento de datos de alto rendimiento y al mismo tiempo minimizar las “múltiples responsabilidades” que conlleva la gestión de infraestructura personalizada, eliminando la sobrecarga de construir y proteger sus propios entornos sandbox. OpenAI esencialmente dice: “Danos las instrucciones, nosotros te proporcionaremos la computadora”.
Habilidades OpenAI versus habilidades antrópicas
Tanto OpenAI como Anthropic ahora admiten “habilidades”, instrucciones para que los agentes realicen operaciones específicas, y han convergido en el mismo estándar abierto: un SKILL.md (rebaja) manifiesto con frontmatter YAML.
En teoría, una habilidad desarrollada para cualquiera de estos podría trasladarse a VS Code, Cursor o cualquier otra plataforma que adopte la especificación.
De hecho, el nuevo agente de IA de código abierto garra abierta adoptó exactamente esto SKILL.md empaquetado basado en manifiestos y carpetas, lo que le permite heredar una gran cantidad de conocimientos de procedimientos especializados diseñados originalmente para Claude.
Esta compatibilidad arquitectónica ha impulsado un “auge de habilidades” impulsado por la comunidad en plataformas como ClawHub, que ahora alberga más de 3000 extensiones creadas por la comunidad que van desde integraciones de hogares inteligentes hasta complejas automatizaciones de flujos de trabajo empresariales.
Esta polinización cruzada demuestra que la “habilidad” se ha convertido en un activo versionado y portátil en lugar de una característica bloqueada por el proveedor. Debido a que OpenClaw admite múltiples modelos, incluida la serie GPT-5 de OpenAI y las instancias locales de Llama, los desarrolladores ahora pueden escribir una habilidad una vez e implementarla en un panorama de agentes heterogéneo.
BPero las estrategias subyacentes de OpenAI y Anthropic revelan visiones divergentes para el futuro del trabajo.
El enfoque de OpenAI prioriza un “sustrato programable” optimizado para la velocidad del desarrollador. Al agrupar el shell, la memoria y las habilidades en la API de Responses, brindan una experiencia “lista para usar” para crear rápidamente agentes complejos.
Ya es una startup de investigación de IA empresarial Recolectar informó un aumento en la precisión de la herramienta del 73% al 85% utilizando el marco de habilidades de OpenAI.
BAl combinar el estándar abierto con su API Responses patentada, la empresa proporciona un sustrato de alto rendimiento listo para usar.
No se trata sólo de leer la habilidad; lo aloja dentro de un shell administrado de Debian 12, maneja las políticas de red y aplica compresión del lado del servidor para garantizar que el agente no se pierda durante una sesión de cinco millones de tokens. Esta es la opción de “alto rendimiento” para los ingenieros que necesitan implementar trabajadores autónomos de larga duración sin la sobrecarga de crear un entorno de ejecución personalizado.
Anthropic, a su vez, se centró en el “mercado de experiencia”. Su fortaleza radica en un directorio maduro de guías de socios preempaquetadas de compañías como Atlassian, Figma y Stripe.
Implicaciones para los tomadores de decisiones técnicas empresariales
Para los ingenieros centrados en “implementación rápida y ajuste”, la combinación de compresión y habilidades del lado del servidor proporciona un enorme impulso de productividad.
En lugar de crear una administración de estado personalizada para cada ejecución de agente, los ingenieros pueden aprovechar la compresión incorporada para manejar tareas de varias horas.
Las habilidades permiten “IP empaquetada”, donde se pueden modularizar y reutilizar conocimientos de procedimientos especializados o ajustes específicos en diferentes proyectos internos.
Para aquellos encargados de trasladar la IA de una “ventana de chat” a un flujo de trabajo de nivel de producción, el anuncio de OpenAI marca el fin de la era de la “infraestructura a medida”.
Históricamente, orquestar un agente requería una estructura manual significativa: los desarrolladores tenían que crear una lógica de administración de estado personalizada para manejar conversaciones largas y entornos limitados seguros y efímeros para ejecutar código.
El desafío ya no es “¿Cómo puedo darle una terminal a este agente?” sino “¿Qué habilidades están autorizadas para qué usuarios?” y “¿Cómo auditamos los artefactos producidos en el sistema de archivos alojado?” OpenAI proporcionó el motor y el chasis; El trabajo del orquestador ahora es definir las reglas de tráfico.
Para los gerentes de operaciones de seguridad (SecOps), proporcionar un shell y acceso a la red a un modelo de IA es una evolución de alto riesgo. El uso que hace OpenAI de secretos de dominio y listas blancas de organizaciones proporciona una estrategia de defensa en profundidad, garantizando que los agentes puedan llamar a las API sin exponer las credenciales sin procesar al contexto del modelo.
Pero a medida que los agentes se vuelven más fáciles de implementar a través de “habilidades”, SecOps debe estar atento a las “habilidades maliciosas” que pueden introducir vulnerabilidades de inyección inmediata o rutas de filtración de datos no autorizadas.
¿Cómo deberían decidir las empresas?
OpenAI ya no se limita a vender un “cerebro” (el modelo); Está vendiendo la “oficina” (el contenedor), la “memoria” (compresión) y el “manual de formación” (habilidades). Para los líderes empresariales, la elección es cada vez más clara:
Elija la API de respuestas de OpenAI si sus agentes exigen una ejecución intensa y con estado. Al combinar el estándar universal Skills con la compresión del lado del servidor y los contenedores de shell alojados, OpenAI es la opción superior para los ingenieros que necesitan implementar agentes autónomos de larga duración (que manejan más de 5 millones de tokens o más de 150 llamadas a herramientas) sin la sobrecarga de construir su propia administración de memoria o infraestructura de espacio aislado.
Elija la API de Antropica si su prioridad es el conocimiento modular y la profundidad del ecosistema. Si bien ambas plataformas admiten la divulgación progresiva del estándar, Anthropic lo ha optimizado para lograr una eficiencia a escala de biblioteca, lo que permite a los orquestadores acceder a un directorio maduro de manuales de estrategias de socios preempaquetados.
En última instancia, esta convergencia indica que la IA ha superado la era del “jardín amurallado” de la ingeniería inmediata. Al estandarizar Agentskills.io, la industria está transformando los “espaguetis inmediatos” en una arquitectura empresarial compartida, versionada y escalable. Ya sea que elija el poder bruto del tiempo de ejecución con estado de OpenAI o la ergonomía eficiente del ecosistema Anthropic, el resultado es el mismo: su “conocimiento de agente” es ahora un activo comercial permanente e interoperable.
Actualización 10 de febrero a las 6:52 pm ET: Desde entonces, este artículo se actualizó para corregir errores en una versión anterior con respecto a la portabilidad de las habilidades de OpenAI en comparación con las de Anthropic. Lamentamos los errores.














