En los últimos años, los investigadores de OpenAI hacían fogatas y cantaban "Feel the AGI!" alrededor de ellas. No es una metáfora: es lo que reportó MIT Technology Review en octubre de 2025, citando reuniones internas donde el exjefe científico Ilya Sutskever dirigía esos cánticos como si la inteligencia artificial general fuera una deidad que necesitaba ser invocada. El hype1 de la IA no describe el futuro: lo administra. Y tiene una función económica y política muy concreta.
La inevitabilidad no se descubre: se fabrica
Desde hace años, los CEOs de las principales empresas de IA comunican el mismo mensaje con variaciones: la AGI —inteligencia artificial general, es decir, una IA capaz de realizar cualquier tarea cognitiva humana— es inminente, inevitable y transformadora. Dario Amodei (Anthropic) la describió como una IA equivalente a un país de genios. Demis Hassabis (Google DeepMind) habló de colonizar la galaxia. Sam Altman (OpenAI) prometió "máxima prosperidad humana". Elon Musk puso la probabilidad de extinción por IA en 20%.
Lo que hace MIT Technology Review en su análisis de octubre de 2025 es señalar el mecanismo detrás de ese patrón: la AGI funciona como una teoría de la conspiración, no porque sea falsa necesariamente, sino porque opera con la misma lógica. Tiene una fecha que siempre está cerca pero nunca llega, un grupo de iniciados que "la sienten" mientras el resto no puede verla todavía, y una narrativa que se reajusta sin consecuencias cada vez que las predicciones fallan. La diferencia con una conspiración ordinaria es que esta tiene consecuencias medibles en capital, regulación y política pública — y que la tecnología que describe aún no existe.
El hype tiene una función financiera muy concreta
En marzo de 2025, OpenAI cerró la ronda de financiamiento privado más grande de la historia: 40 mil millones de dólares liderados por SoftBank, con una valuación de 300 mil millones de dólares. En el comunicado oficial, la palabra "AGI" aparece como justificación central del capital requerido. La narrativa no es un efecto secundario del entusiasmo: es parte del mecanismo de captación.
Según reportó MIT Technology Review en su paquete editorial "Hype Correction" de diciembre de 2025, Altman no es simplemente un entusiasta de la tecnología. Durante más de una década, ha sido reconocido en Silicon Valley como un captador de fondos y persuasor de clase mundial. Su framing sobre la IA —presentándola como humanista o catastrófica según el efecto que buscaba producir y el capital que necesitaba levantar— ha sido consistentemente estratégico, no accidental.
El hype de la IA no describe el futuro: lo administra. Cuando la inevitabilidad se acepta como hecho, las decisiones colectivas sobre la tecnología más disruptiva del siglo quedan en manos de quienes tienen más que ganar con construirla.
Esto crea una estructura circular difícil de cuestionar desde adentro: las narrativas de inevitabilidad atraen capital, ese capital financia desarrollo de modelos, ese desarrollo alimenta nuevas declaraciones sobre el avance hacia la AGI, y el ciclo reinicia. Cuestionar el hype equivale a cuestionar la valuación — y eso tiene costos reales para todos los actores del ecosistema que dependen de ella.
"Agent washing": el vocabulario del hype industrial
El mismo patrón que opera a nivel de las grandes narrativas se reproduce en el mercado de productos. En junio de 2025, Gartner publicó una predicción que no llegó a muchos keynotes: más del 40% de los proyectos de agentes de IA serán cancelados antes de finales de 2027, por costos escalantes, valor de negocio poco claro y controles de riesgo insuficientes.
La analista senior de Gartner Anushree Verma fue directa en el comunicado oficial: "La mayoría de los proyectos de agentes de IA son experimentos en etapas tempranas, principalmente impulsados por hype y frecuentemente mal aplicados." El mismo reporte identificó un fenómeno que Gartner denominó agent washing: la práctica de rebautizar productos existentes —asistentes de IA, chatbots, herramientas de automatización— como "agentes de IA" sin que tengan capacidades agénticas reales. De los miles de proveedores que venden soluciones agénticas, Gartner estima que solo alrededor de 130 ofrecen capacidades genuinas.
La IA generativa, por su parte, lleva desde 2024 en lo que Gartner llama el Trough of Disillusionment —la fase del ciclo de adopción tecnológica en que la brecha entre expectativas y realidad se hace visible para las empresas que invirtieron. El diagnóstico de Gartner para 2026 es claro: la IA seguirá siendo vendida a las empresas por sus proveedores de software existentes, no comprada como parte de nuevos proyectos de transformación, porque "la predictibilidad del ROI debe mejorar antes de que la IA pueda escalarse verdaderamente."
Los números que no aparecen en los keynotes
En julio de 2025, el MIT Project NANDA publicó The GenAI Divide: State of AI in Business 2025, basado en más de 300 iniciativas de IA revisadas, 52 entrevistas con ejecutivos y 153 encuestas a líderes senior. La conclusión: pese a que se han invertido entre 30 y 40 mil millones de dólares invertidos globalmente en IA generativa empresarial, el 95% de las organizaciones no ve ningún retorno financiero medible. Solo el 5% de los pilotos personalizados de IA empresarial llegan a producción. El resto falla no por limitaciones técnicas de los modelos, sino por flujos de trabajo frágiles y desalineación con las operaciones reales. El informe también documentó lo que llamó "shadow AI economy": el 90% de los empleados usa herramientas personales de IA para tareas de trabajo, saltándose los sistemas oficiales que sus empresas invirtieron en implementar. Estos datos no contradicen el potencial de la tecnología. Documentan la distancia entre las narrativas de inevitabilidad de los keynotes y la realidad operativa de la mayoría de las organizaciones.
El vibe shift de 2025–2026: ¿corrección o rebranding?
En agosto de 2025, Fortune reportó un giro notable: los líderes de IA de Silicon Valley habían dejado de usar el término AGI con tanta frecuencia. El propio Altman declaró a CNBC que AGI "no es un término muy útil", después de haber escrito en enero de ese mismo año que OpenAI estaba "seguro de saber cómo construir AGI." El giro fue tan rápido que varios observadores lo notaron de inmediato.
Max Tegmark, presidente del Future of Life Institute, fue citado por Fortune con una interpretación precisa: decir que la AGI "no es un término útil" no es humildad científica. Es una forma de eludir la regulación mientras se sigue construyendo hacia modelos cada vez más poderosos. "Es más inteligente para ellos hablar de AGI en privado con sus inversores", dijo Tegmark, señalando que llamar al término "impreciso" no es humildad científica cuando el objetivo que describe sigue siendo el mismo."
El hype no desapareció. Mutó de forma. Donde antes se hablaba de AGI, ahora se habla de superinteligencia, de agentes autónomos, de la era de la IA física. La función es la misma: crear un horizonte de transformación total que justifique el capital levantado y la urgencia de actuar antes de que "alguien más lo construya primero."
El argumento de "si no lo construimos nosotros, lo construirá China" no describe una realidad geopolítica: fabrica urgencia para transferir decisiones colectivas a un grupo pequeño de actores privados con incentivos muy concretos.
Lo que esto significa para México y América Latina
El costo del hype en regiones como México y América Latina no es solo financiero. Las decisiones de infraestructura digital, formación técnica y política regulatoria se toman, con frecuencia, siguiendo una hoja de ruta fabricada en San Francisco. Los marcos regulatorios locales, los presupuestos de adopción en gobiernos y empresas, y los programas de reconversión laboral se alinean con narrativas sobre el ritmo y la forma de la transformación por IA que no fueron diseñadas pensando en las condiciones reales de la región.
El problema no es que la IA no sea transformadora — puede serlo. El problema es que la narrativa de inevitabilidad cierra el espacio para preguntar cuándo, cómo, con qué salvaguardas y a qué velocidad debería adoptarse. Esas preguntas son políticas, no técnicas. Y cuando la urgencia del hype las desplaza, las respuestas quedan en manos de quienes tienen más que ganar con determinadas respuestas.
La IA generativa puede ser una herramienta poderosa. Y el hype puede ser, simultáneamente, una estrategia de poder. Ambas cosas son ciertas al mismo tiempo. La confusión entre las dos es, precisamente, el producto.
—
¹ hype: exageración deliberada de las capacidades o el impacto de algo para generar expectativa, inversión o adopción. En tecnología, suele referirse a narrativas que adelantan promesas que la realidad tarda años en cumplir — o nunca cumple.

