¿Cuánto importan los modelos de fundación?

Puede parecer una pregunta tonta, pero ha aparecido mucho en mis conversaciones con las nuevas empresas de IA, que se sienten cada vez más cómodas con las empresas que solían ser despedidas como “envoltorios GPT”, o empresas que construyen interfaces sobre los modelos de IA existentes como ChatGPT. En estos días, los equipos de inicio se centran en personalizar modelos de IA para tareas específicas y trabajo de interfaz, y ver el modelo de base como una mercancía que se puede intercambiar dentro y fuera según sea necesario. Ese enfoque estaba en exhibición especialmente en Boxworks de la semana pasada Conferencia, que parecía dedicada completamente al software orientado al usuario construido sobre los modelos de IA.

Parte de lo que impulsa esto es que los beneficios de escala del pre-entrenamiento, ese proceso inicial de enseñar modelos de IA que usan conjuntos de datos masivos, que es el único dominio de los modelos de fundaciones, se ha ralentizado. Eso no significa que la IA haya dejado de progresar, pero los primeros beneficios de los modelos fundamentales hiperscalados han alcanzado rendimientos decrecientes, y la atención se ha centrado en el aprendizaje posterior al entrenamiento y el refuerzo como fuentes de progreso futuro. Si desea hacer una mejor herramienta de codificación de IA, es mejor que trabaje en el ajuste y el diseño de interfaz en lugar de gastar otros mil millones de dólares en el tiempo del servidor en la capacitación previa. Como muestra el éxito del Código Claude de Anthrope, las compañías de modelos de base también son bastante buenas en estos otros campos, pero no es una ventaja tan duradera como solía ser.

En resumen, el panorama competitivo de la IA está cambiando de manera que socava las ventajas de los mayores laboratorios de IA. En lugar de una carrera por un AGI todopoderoso que podría igualar o superar las habilidades humanas en todas las tareas cognitivas, el futuro inmediato parece una avalancha de negocios discretos: desarrollo de software, gestión de datos empresariales, generación de imágenes, etc. Además de una ventaja de primer movimiento, no está claro que construir un modelo de base le brinde ninguna ventaja en esos negocios. Peor aún, la abundancia de alternativas de código abierto significa que los modelos de cimientos pueden no tener ningún apalancamiento de precios si pierden la competencia en la capa de aplicación. Esto convertiría a empresas como OpenAi y Anthrope en proveedores de back-end en un negocio de productos básicos de bajo margen, como me dijo un fundador, “como vender granos de café a Starbucks”.

Es difícil exagerar qué cambio dramático sería para el negocio de la IA. A lo largo del auge contemporáneo, el éxito de la IA ha sido inextricable del éxito de las compañías Building Foundation Models, específicamente, OpenAi, Anthrope y Google. Ser optimista en la IA significaba creer que el impacto transformador de la IA lo convertiría en empresas generacionalmente importantes. Podríamos discutir sobre qué compañía saldría en la cima, pero estaba claro que alguna compañía de modelos de fundación terminaría con las claves del reino.

En ese momento, había muchas razones para pensar que esto era cierto. Durante años, el desarrollo del modelo de fundación fue el único negocio de IA que había, y el ritmo rápido de progreso hizo que su liderazgo pareciera insuperable. Y Silicon Valley siempre ha tenido un amor profundamente arraigado por la ventaja de la plataforma. La suposición era que, sin embargo, los modelos de IA terminaron ganando dinero, la participación del león en el beneficio fluiría de regreso a las compañías modelo de fundación, que habían realizado el trabajo que era más difícil de replicar.

El año pasado ha hecho que esa historia sea más complicada. Hay muchos servicios de IA de terceros exitosos, pero tienden a usar modelos de base indistintamente. Para las startups, ya no importa si su producto se encuentra en la parte superior de GPT-5, Claude o Gemini, y esperan poder cambiar modelos en la liberación media sin que los usuarios finales noten la diferencia. Los modelos de base continúan progresando real, pero ya no parece plausible que ninguna compañía mantenga una ventaja lo suficientemente grande como para dominar la industria.

Evento de TechCrunch

San Francisco
|
27-29 de octubre de 2025

Ya tenemos muchas indicaciones de que no hay mucha ventaja de primer movimiento. Como el capitalista de riesgo, Martin Casado de A16z, señaló Un podcast recienteOpenai fue el primer laboratorio en publicar un modelo de codificación, así como modelos generativos para imagen y video, solo para perder las tres categorías a los competidores. “Por lo que podemos decir, no hay foso inherente en la pila de tecnología para la IA”, concluyó Casado.

Por supuesto, todavía no debemos contar a las compañías de modelos de fundación. Todavía hay muchas ventajas duraderas de su lado, incluido el reconocimiento de marca, la infraestructura y las reservas de efectivo impensablemente vastas. El negocio del consumidor de OpenAI puede resultar más difícil de replicar que su negocio de codificación, y otras ventajas pueden surgir a medida que el sector madura. Dado el ritmo rápido del desarrollo de la IA, el interés actual en el post-entrenamiento podría revertir fácilmente el curso en los próximos seis meses. Lo más incierto de todos, la carrera hacia la inteligencia general podría dar sus frutos con nuevos avances en la ciencia farmacéutica o de los materiales, cambiando radicalmente nuestras ideas sobre lo que hace valiosos los modelos de IA.

Pero mientras tanto, la estrategia de construir modelos de la Fundación Ever Bigger se ve mucho menos atractiva que el año pasado, y la ola de gastos de mil millones de dólares de Meta está comenzando a parecer terriblemente arriesgado.

Fuente