Si 2025 fuera el año AI recibió una prueba de vibración2026 será el año en que la tecnología se vuelva práctica. La atención ya está desplazándose de la construcción de modelos de lenguaje cada vez más grandes hacia el trabajo más duro de hacer que la IA sea utilizable. En la práctica, esto implica implementar modelos más pequeños donde encajen, incorporar inteligencia en dispositivos físicos y diseñar sistemas que se integren limpiamente en los flujos de trabajo humanos.
Los expertos de TechCrunch han hablado de ver 2026 como un año de transición, un año que evoluciona desde el escalamiento de fuerza bruta hasta la investigación de nuevas arquitecturas, desde demostraciones llamativas hasta implementaciones específicas, y desde agentes que prometen autonomía a otros que realmente mejoran la forma en que trabaja la gente.
La fiesta aún no ha terminado, pero la industria está empezando a recuperar la sobriedad.
Las leyes de escalada no resolverán esto
En 2012, Alex Krizhevsky, Ilya Sutskever y Geoffrey Hinton Papel ImageNet mostró cómo los sistemas de inteligencia artificial podrían “aprender” a reconocer objetos en imágenes observando millones de ejemplos. El enfoque era computacionalmente costoso, pero fue posible con las GPU. ¿El resultado? Una década de intensa investigación en IA mientras los científicos trabajaban para inventar nuevas arquitecturas para diferentes tareas.
Esto culminó alrededor de 2020 cuando OpenAI lanzó GPT-3, que mostró cómo simplemente hacer que el modelo sea 100 veces más grande desbloquea habilidades como codificación y razonamiento sin requerir capacitación explícita. Esto marcó la transición a lo que Kian Katanforoosh, director ejecutivo y fundador de la plataforma de agentes de IA Workera, llama la “era de expansión”: un período definido por la creencia de que más computación, más datos y modelos transformadores más grandes conducirían inevitablemente a los próximos grandes avances en IA.
Hoy en día, muchos investigadores piensan que la industria de la IA está comenzando a agotar los límites de las leyes de escala y una vez más pasará a una era de investigación.
Yann LeCun, Meta’s ex científico jefe de IADurante mucho tiempo ha argumentado en contra de la dependencia excesiva del escalamiento y ha enfatizado la necesidad de desarrollar mejores arquitecturas. Y Sutskever dijo en un reciente entrevista que los modelos actuales están estancados y los resultados previos a la capacitación se han estancado, lo que indica la necesidad de nuevas ideas.
Evento tecnológico
san francisco
|
13-15 de octubre de 2026
“Creo que probablemente en los próximos cinco años encontraremos una mejor arquitectura que supondrá una mejora significativa en los transformadores”, dijo Katanforoosh. “Y si no lo hacemos, no podemos esperar muchas mejoras en los modelos”.
A veces menos es más
Los modelos de lenguaje grandes son excelentes para generalizar el conocimiento, pero muchos expertos dicen que la próxima ola de adopción de IA empresarial será impulsada por modelos de lenguaje más pequeños y ágiles que puedan adaptarse a soluciones de dominios específicos.
“Los SLM sintonizados serán la gran tendencia y se convertirán en un producto básico utilizado por empresas maduras de IA en 2026, ya que las ventajas de costo y rendimiento impulsarán el uso sobre los LLM disponibles en el mercado”, dijo a TechCrunch Andy Markus, director de datos de AT&T. “Ya hemos visto empresas que dependen cada vez más de los SLM porque, si se ajustan adecuadamente, coinciden con modelos más grandes y generalizados en precisión para aplicaciones empresariales y son excelentes en términos de costo y velocidad”.
Hemos visto este argumento antes de Mistral, la startup francesa de IA de peso abierto: argumenta que es pequeña los modelos realmente funcionan mejor que los modelos más grandes en varios puntos de referencia después del ajuste fino.
“La eficiencia, rentabilidad y adaptabilidad de los SLM los hacen ideales para aplicaciones personalizadas donde la precisión es crítica”, afirmó Jon Knisley, estratega de IA de ABBYY, una empresa de IA empresarial con sede en Austin.
Si bien Markus cree que los SLM serán fundamentales en la era de la agencia, Knisley dice que la naturaleza de los modelos pequeños significa que son mejores para su implementación en dispositivos locales, “una tendencia acelerada por los avances en la informática de punta”.
Aprender a través de la experiencia

Los humanos no sólo aprenden a través del lenguaje; aprendemos experimentando cómo funciona el mundo. Pero los LLM realmente no entienden el mundo; simplemente predicen la siguiente palabra o idea. Es por eso que muchos investigadores creen que el próximo gran salto vendrá de los modelos mundiales: sistemas de inteligencia artificial que aprenden cómo las cosas se mueven e interactúan en espacios 3D para poder hacer predicciones y actuar.
Las señales de que 2026 será un gran año para los modelos globales se están multiplicando. LeCun dejó Meta para iniciar su propio laboratorio de modelado mundial y, según se informa, buscando una valoración de 5 mil millones de dólares. DeepMind de Google está trabajando en Genie y en agosto lanzó su último modelo que crea modelos mundiales interactivos de propósito general en tiempo real. Junto con demostraciones de nuevas empresas como Desechar y Odisea, Laboratorios mundiales Fei-Fei Li lanzó su primer modelo comercial global, Marble. Los recién llegados como General Intuition obtuvieron en octubre una puntuación Ronda inicial de 134 millones de dólares para enseñar razonamiento espacial a los agentes, y la startup de generación de videos Runway lanzó su El primer modelo del mundo, GWM-1..
Si bien los investigadores ven potencial a largo plazo en la robótica y la autonomía, el impacto a corto plazo probablemente se verá primero en los videojuegos. PitchBook predice que el mercado de modelos mundiales en juegos podría crecer de 1.200 millones de dólares entre 2022 y 2025 a 276.000 millones de dólares en 2030, impulsado por la capacidad de la tecnología para generar mundos interactivos y personajes no jugadores más realistas.
Pim de Witte, fundador de General Intuition, dijo a TechCrunch que los entornos virtuales no sólo podrían remodelar los juegos, sino también convertirse en campos de pruebas críticos para la próxima generación de modelos centrales.
nación agente
Los agentes no han podido estar a la altura de las expectativas en 2025, pero una gran razón es que es difícil conectarlos a los sistemas donde realmente se realiza el trabajo. Sin una forma de acceder a las herramientas y al contexto, la mayoría de los agentes quedaron atrapados en flujos de trabajo piloto.
El protocolo de contexto modelo (MCP) de Anthropic, un “USB-C para IA” que permite a los agentes de IA comunicarse con herramientas externas como bases de datos, motores de búsqueda y API, ha demostrado ser el tejido conectivo que falta y se está convirtiendo rápidamente en el estándar. OpenAI y Microsoft han adoptado públicamente MCP, y Anthropic lo donó recientemente a la La nueva Fundación Agentic AI de la Fundación Linuxcuyo objetivo es ayudar a estandarizar las herramientas de agentes de código abierto. Google también empezó a defenderse servidores MCP administrados para conectar agentes de IA con sus productos y servicios.
Dado que MCP reduce la fricción al conectar agentes a sistemas reales, 2026 probablemente será el año en que los flujos de trabajo de los agentes finalmente pasen de las demostraciones a la práctica cotidiana.
Rajeev Dham, socio de Sapphire Ventures, dice que estos avances conducirán a soluciones en las que el agente primero, asumiendo “funciones de sistema de registro” en todas las industrias.
“A medida que los agentes de voz manejen tareas más completas como la captura y comunicación de clientes, también comenzarán a formar los sistemas centrales subyacentes”, dijo Dham. “Veremos esto en sectores como los servicios para el hogar, tecnología proptech y atención médica, así como en funciones horizontales como ventas, TI y soporte”.
Aumento, no automatización

Si bien más flujos de trabajo de agentes pueden generar preocupaciones de que puedan producirse despidos, Katanforoosh de Workera no está tan seguro de que ese sea el mensaje: “2026 será el año de los humanos”, dijo.
Para 2024, todas las empresas de IA predijeron que automatizarían trabajos debido a la necesidad de humanos. Pero la tecnología aún no ha llegado y, en una economía inestable, esa no es una retórica realmente popular. Katanforoosh dice que el próximo año nos daremos cuenta de que “la IA no funcionó de manera tan autónoma como pensábamos” y la conversación se centrará más en cómo se utiliza la IA para aumentar los flujos de trabajo humanos en lugar de reemplazarlos.
“Y creo que muchas empresas van a empezar a contratar”, añadió, señalando que espera que haya nuevos roles en la gobernanza, la transparencia, la seguridad y la gestión de datos de la IA. “Soy bastante optimista acerca de que el desempleo promediará menos del 4% el próximo año”.
“La gente quiere estar por encima del API, no por debajo, y creo que 2026 es un año importante para eso”, añadió de Witte.
Ponerse físico

Los expertos afirman que los avances en tecnologías como los modelos pequeños, los modelos mundiales y la informática de punta permitirán más aplicaciones físicas del aprendizaje automático.
“La IA física llegará al mercado en 2026 a medida que nuevas categorías de dispositivos impulsados por IA, incluidos robóticos, vehículos autónomos, drones y dispositivos portátiles, comiencen a ingresar al mercado”, dijo a TechCrunch Vikram Taneja, director de AT&T Ventures.
Si bien los vehículos autónomos y la robótica son casos de uso obvios para la IA física que sin duda seguirán creciendo en 2026, la capacitación y el despliegue necesarios siguen siendo costosos. Los wearables, por otro lado, ofrecen una ventaja menos costosa con la adopción por parte del consumidor. Gafas inteligentes como Carne Ray-Ben están empezando a enviar asistentes que pueden responder preguntas sobre lo que estás viendo y nuevos formatos como Anillos de salud impulsados por IA y relojes inteligentes están normalizando la inferencia siempre activa en el cuerpo.
“Los proveedores de conectividad trabajarán para optimizar su infraestructura de red para soportar esta nueva ola de dispositivos, y aquellos con flexibilidad en cómo pueden ofrecer conectividad estarán mejor posicionados”, dijo Taneja.















