El estándar de código abierto de Anthropic, el Model Context Protocol (MCP), lanzado a finales de 2024permite a los usuarios conectar modelos de IA y los agentes encima de ellos a herramientas externas en un formato estructurado y confiable. Es el motor detrás del éxito de Anthropic Látigo de programación de agentes de IA, Código Claudepermitiéndole acceder a numerosas funciones, como navegación web y creación de archivos, inmediatamente cuando lo solicite.
Pero había un problema: Claude Code normalmente tenía que “leer” el manual de instrucciones de cada herramienta disponible, independientemente de si era necesaria para la tarea inmediata, utilizando el contexto disponible que de otro modo podría completarse con más información de las solicitudes de los usuarios o las respuestas de los agentes.
Al menos hasta anoche. El equipo de Claude Code ha lanzado una actualización lo que cambia fundamentalmente esta ecuación. Llamada búsqueda de herramientas MCP, la función introduce una “carga diferida” para las herramientas de inteligencia artificial, lo que permite a los agentes buscar dinámicamente definiciones de herramientas solo cuando sea necesario.
Es un cambio que lleva a los agentes de IA de una arquitectura de fuerza bruta a algo parecido a la ingeniería de software moderna y, según los primeros datos, resuelve efectivamente el problema de la “inflación” que amenazaba con asfixiar el ecosistema.
El ‘impuesto inicial’ a los agentes
Para comprender el significado de Tool Research, es necesario comprender la fricción del sistema anterior. El Model Context Protocol (MCP), lanzado en 2024 por Anthropic como estándar de código abierto, está diseñado para ser un estándar universal para conectar modelos de IA a fuentes de datos y herramientas, desde repositorios de GitHub hasta sistemas de archivos locales.
Sin embargo, a medida que el ecosistema crecía, también lo hacía el “impuesto inicial”.
Thariq Shihipar, miembro del equipo técnico de Anthropic, destacó la magnitud del problema en anuncio.
“Descubrimos que los servidores MCP pueden tener más de 50 herramientas”, escribió Shihipar. “Los usuarios estaban documentando configuraciones con más de 7 servidores que consumían más de 67.000 tokens”.
En términos prácticos, esto significaba que un desarrollador que utilizara un conjunto sólido de herramientas podría sacrificar el 33% o más del límite de ventana de contexto disponible de 200.000 tokens antes incluso de escribir un solo carácter de un mensaje, como El autor del boletín AI, Aakash Gupta, señaló en una publicación en X.
El modelo estaba efectivamente “leyendo” cientos de páginas de documentación técnica en busca de herramientas que quizás nunca usaría durante esa sesión.
El análisis comunitario proporcionó ejemplos aún más claros.
Gupta señaló además que un único servidor Docker MCP podría consumir 125.000 tokens solo para definir sus 135 herramientas.
“La antigua restricción obligó a un intercambio brutal”, escribió. “Limite sus servidores MCP a 2 o 3 herramientas principales o acepte que la mitad de su presupuesto de contexto desaparezca antes de comenzar a trabajar”.
Cómo funciona la búsqueda de herramientas
La solución lanzada por Anthropic – que Shihipar llamó “una de nuestras características más solicitadas en el GitHub” — es elegante en su restricción. En lugar de precargar todas las definiciones, Claude Code ahora monitorea el uso del contexto.
Según las notas de la versión, el sistema detecta automáticamente cuando las descripciones de las herramientas consumirían más del 10% del contexto disponible.
Cuando se excede este límite, el sistema cambia de estrategia. En lugar de descargar documentación sin procesar en el mensaje, carga un índice de búsqueda liviano.
Cuando el usuario solicita una acción específica (por ejemplo, “implementar este contenedor”), Claude Code no verifica una enorme lista precargada de 200 comandos. En cambio, consulta el índice, encuentra la definición de herramienta relevante y pone esa herramienta específica en contexto.
“La búsqueda de herramientas invierte la arquitectura”, analizó Gupta. “Los ahorros de tokens son espectaculares: de aproximadamente 134 000 a aproximadamente 5 000 en las pruebas internas de Anthropic. Esto representa una reducción del 85 % mientras se mantiene el acceso completo a la herramienta”.
Para los desarrolladores que mantienen servidores MCP, esto cambia la estrategia de optimización.
Shihipar señaló que el campo “instrucciones del servidor” en la definición de MCP (que antes era “bueno tener”) ahora es fundamental. Actúa como metadatos que ayudan a Claude a “saber cuándo buscar sus herramientas, similares a las habilidades”.
‘Carga diferida’ y aumento de precisión
Si bien el ahorro de tokens es la métrica principal (ahorrar dinero y memoria siempre es popular), el efecto secundario de esta actualización puede ser más importante: el enfoque.
Los LLM son notoriamente sensibles a la “distracción”. Cuando la ventana de contexto de un modelo se llena con miles de líneas de definiciones de herramientas irrelevantes, su capacidad de razonar disminuye. Esto crea un problema de “aguja en un pajar” donde el modelo lucha por diferenciar entre comandos similares como “notificación-envío-usuario” versus “notificación-envío-canal”.
Boris Cherny, director de Claude Code, lo destacó en tu reacción al lanzamiento en X: “Cada usuario de Claude Code obtiene mucho más contexto, un mejor seguimiento de la instrucción y la capacidad de conectar aún más herramientas”.
Los datos lo demuestran. Los puntos de referencia internos compartidos por la comunidad indican que habilitar la búsqueda de herramientas mejoró la precisión del modelo Opus 4 en las evaluaciones de MCP del 49 % al 74 %.
Para el último Opus 4.5, la precisión saltó del 79,5% al 88,1%.
Al eliminar el ruido de cientos de herramientas no utilizadas, el modelo puede dedicar sus mecanismos de “atención” a la consulta real del usuario y a las herramientas activas relevantes.
Madurando la pila
Esta actualización indica madurez en la forma en que abordamos la infraestructura de IA. En los inicios de cualquier paradigma de software, la fuerza bruta era común. Pero a medida que los sistemas crecen, la eficiencia se convierte en el desafío clave de la ingeniería.
Aakash Gupta trazó un paralelo con la evolución de los entornos de desarrollo integrados (IDE) como VSCode o JetBrains. “El cuello de botella no fue ‘demasiadas herramientas’.
Estaba cargando definiciones de herramientas como importaciones estáticas de la era 2020 en lugar de carga diferida de la era 2024″, escribió. “VSCode no carga todas las extensiones al inicio. JetBrains no inyecta todos los documentos de complementos en la memoria.”
Al adoptar la “carga diferida”, una de las mejores prácticas estándar en el desarrollo web y de software, Anthropic reconoce que los agentes de IA ya no son solo novedades; Son plataformas de software complejas que requieren disciplina arquitectónica.
Implicaciones para el ecosistema
Para el usuario final, esta actualización es perfecta: Claude Code simplemente parece “más inteligente” y conserva más memoria de conversación. Pero para el ecosistema de desarrolladores, esto abre las compuertas.
Anteriormente, había un “límite suave” en la capacidad de un agente. Los desarrolladores tuvieron que seleccionar cuidadosamente sus conjuntos de herramientas para evitar lobotomizar el modelo con un contexto excesivo. Con Tool Search, este límite se elimina de forma efectiva. En teoría, un agente puede tener acceso a miles de herramientas (conectores de bases de datos, scripts de implementación en la nube, contenedores de API, manejadores de archivos locales) sin pagar ninguna multa hasta que esas herramientas realmente se utilicen.
Transforma la “economía de contexto” de un modelo de escasez a un modelo de acceso. Como resumió Gupta: “No sólo están optimizando el uso del contexto. Están cambiando lo que podría significar ‘agentes ricos en herramientas'”.
La actualización se implementará inmediatamente para los usuarios de Claude Code. Para los desarrolladores que crean clientes MCP, Anthropic recomienda implementar `ToolSearchTool` para admitir esta carga dinámica, asegurando que cuando llegue el futuro agente, no se quede sin memoria antes de saludar.











