El reporte anual de Stanford sobre el estado de la IA confirmó lo que muchos en Silicon Valley prefieren no discutir: la brecha entre los modelos de EE.UU. y China se redujo a 2.7 puntos porcentuales. Y los modelos más capaces son ahora los menos dispuestos a explicar cómo funcionan.
La paridad en rendimiento de modelos
En el ranking Arena Elo —la medición de rendimiento de modelos de lenguaje de mayor referencia en la industria— a marzo de 2026, Anthropic lidera con 1,503 puntos, seguido de xAI con 1,495, Google con 1,494, OpenAI con 1,481, Alibaba con 1,449 y DeepSeek con 1,424. La diferencia entre el primer y el último lugar en ese grupo de élite es de 79 puntos sobre más de 1,400 — una separación técnicamente insignificante en términos de capacidad práctica.
En febrero de 2025, DeepSeek-R1 igualó brevemente al modelo más avanzado de EE.UU. Desde entonces, los dos países han intercambiado el liderazgo múltiples veces. EE.UU. sigue produciendo más modelos de primer nivel y más patentes de alto impacto, pero China lidera en volumen de publicaciones, citas académicas, patentes totales e instalaciones de robots industriales. EE.UU. domina en profundidad; China domina en escala.
El dato que la narrativa del hype oculta: transparencia en caída libre
El índice de transparencia de modelos fundacionales —que mide cuánto revelan los desarrolladores sobre los datos de entrenamiento, parámetros y políticas de uso— cayó este año a 40 puntos, desde 58 el año anterior. El patrón es sistemático: los modelos más capaces son consistentemente los menos transparentes. A medida que la IA se vuelve más poderosa, los laboratorios revelan menos sobre cómo la construyeron.
Stanford documenta también que los incidentes de IA registrados globalmente subieron a 362 en 2025, frente a 233 el año anterior. Y en un hallazgo que complica cualquier solución simple, investigaciones recientes encontraron que mejorar una dimensión de IA responsable —como la seguridad— puede degradar otra, como la precisión. El problema no es solo que la IA segura sea difícil de construir: es que las compensaciones entre objetivos de seguridad son reales y están siendo documentadas.
Los modelos más capaces son ahora los menos transparentes. El avance técnico y la rendición de cuentas no van en la misma dirección — y el reporte de Stanford lo confirma con datos.
La adopción que acelera y la "frontera irregular"
La IA generativa alcanzó el 88% de adopción organizacional global, y 4 de cada 5 estudiantes universitarios la usan de forma activa, según el reporte. En benchmarks de código, el rendimiento sobre SWE-bench Verified —que mide la capacidad de resolver problemas reales de software— pasó del 60% a cerca del 100% en un solo año. Los agentes de IA mejoraron su tasa de éxito en tareas reales de computadora del 12% al 66% en OSWorld.
Pero Stanford también documenta lo que llama la "frontera irregular" de la IA: el modelo Gemini Deep Think ganó la medalla de oro en la Olimpiada Internacional de Matemáticas, pero los modelos líderes leen correctamente un reloj analógico solo el 50.1% de las veces. La IA resuelve problemas de física de doctorado y falla en tareas que un niño de diez años domina. Eso no es un error de implementación — es la arquitectura actual.
Lo que el reporte no dice pero implica para América Latina
Singapur lidera la adopción global de IA generativa con el 61% de la población usuaria. Emiratos Árabes Unidos llega al 54%. EE.UU. —con todo su liderazgo en inversión y producción de modelos— ocupa el lugar 24 con apenas el 28.3% de adopción. América Latina no aparece entre los líderes de adopción pese a ser un mercado masivo de plataformas digitales.
La brecha no es de acceso técnico: los modelos están disponibles. Es de infraestructura de adopción: conectividad confiable, ecosistema de integración empresarial, políticas de uso laboral y capacidad de entrenamiento de equipos. El reporte de Stanford mide el mundo desde los centros de producción tecnológica. Lo que no mide —y lo que importa para quienes estamos fuera de ese centro— es por qué la adopción masiva de una tecnología que supuestamente democratiza el conocimiento sigue concentrada en los mismos países que producen esa tecnología.
