Más capaces, más opacos: la paradoja de los modelos de IA

Paradoja de los modelos de IA: ingeniera analizando servidor físico con dispositivo de diagnóstico en centro de datos


Mientras los modelos de inteligencia artificial baten récords en benchmarks y las empresas que los desarrollan se preparan para salir a bolsa, un índice independiente registra la dirección opuesta: la transparencia sobre cómo funcionan esos modelos cayó de 58 a 40 puntos en un solo año. El dato viene del Stanford AI Index 2026, publicado el 13 de abril, y describe una tendencia que el sector prefiere no discutir.

Qué mide el índice y qué encontró

El Foundation Model Transparency Index es un instrumento que evalúa qué tan abiertamente las principales empresas de IA divulgan información sobre sus modelos: datos de entrenamiento, tamaño de parámetros, consumo de cómputo, capacidades documentadas, riesgos conocidos y políticas de uso. No mide si los modelos son buenos o malos — mide si sus creadores explican cómo los hicieron.

 

En 2025, el promedio entre los principales laboratorios era de 58 puntos sobre 100. En 2026 bajó a 40. El reporte de Stanford señala el patrón específico: los modelos más capaces son consistentemente los que menos divulgan. Google, Anthropic y OpenAI han dejado de publicar tamaños de datasets, conteos de parámetros y duración de entrenamiento para sus versiones más recientes y poderosas.

El sector habla de "IA responsable" mientras los modelos más poderosos del mundo se vuelven menos explicables cada año. Esas dos cosas no pueden ser verdad al mismo tiempo.

Por qué importa más allá del debate académico

La opacidad no es un problema abstracto. Tiene consecuencias concretas para tres grupos distintos. Para los reguladores, significa que auditar los sistemas más influyentes del mundo se vuelve técnicamente imposible sin la cooperación voluntaria de las empresas — cooperación que, según los datos de Stanford, va en retroceso. Para las empresas que construyen sobre estos modelos, significa dependencia creciente de sistemas cuyos modos de fallo, sesgos y límites sus propios fabricantes no divulgan. Para el público general, significa que la narrativa de "IA segura y alineada" que los laboratorios promueven en sus comunicados no tiene sustento verificable externo.

La inversión corporativa global en IA se duplicó con creces en 2025, según el mismo reporte de Stanford. El dinero fluye hacia el sector en tiempo récord mientras la información sobre cómo opera ese sector fluye en sentido contrario. Esa asimetría es, por sí sola, un hecho relevante que merece atención.

El contexto que completa el cuadro

 

Este movimiento no ocurre en el vacío. Los mismos laboratorios que reducen su transparencia técnica están, simultáneamente, acercándose a IPOs multimillonarias — OpenAI y Anthropic tienen procesos de salida a bolsa en curso según reportes de abril de 2026 — y presionando a gobiernos para que la regulación sea ligera. Publicar menos sobre cómo funcionan los modelos reduce la superficie de escrutinio justo cuando ese escrutinio tiene más consecuencias comerciales y legales. No es necesario asumir mala fe para notar que los incentivos apuntan en esa dirección. 

Lo que nadie te cuenta sobre la IA. Sin ads, sin spam. Cancela cuando quieras, sin drama.
Suscríbete

Cookies

Usamos cookies para mejorar tu experiencia. Política de privacidad.