AI 2026: por qué los expertos ya no hablan de superinteligencia

IA 2026: profesionales analizando un cerebro digital con dashboards y datos, representación de colaboración humano-máquina

Durante los últimos años, la conversación sobre la inteligencia artificial estuvo dominada por una pregunta: ¿cuándo llegará la AGI? La Inteligencia Artificial General, ese punto teórico donde las máquinas igualan o superan las capacidades cognitivas humanas, parecía estar a la vuelta de la esquina según los CEOs de las grandes tecnológicas. Pero en enero de 2026, el tono cambió radicalmente.

En el Foro Económico Mundial de Davos, los líderes de la industria de la IA tuvieron conversaciones muy diferentes a las de los años anteriores. Demis Hassabis, CEO de Google DeepMind, dejó claro que la AGI no debe convertirse en un término de mercadotecnia. Mientras tanto, figuras como Yann LeCun, científico jefe de IA de Meta, califican la búsqueda de la superinteligencia como algo absurdo. El hype se enfrió, y el debate se volvió mucho más matizado.

El gran cambio en Davos 2026

Demis Hassabis planteó en Davos que la inteligencia artificial general está cada vez más cerca, aunque advirtió que aún restan avances técnicos críticos por lograr. Según Hassabis, la industria todavía consigue extraer mucho más de las arquitecturas existentes a través del preentrenamiento, el posentrenamiento y las metodologías innovadoras. Señaló que aún hay margen para perfeccionar los modelos con las técnicas actuales y las nuevas variantes.

Pero aquí viene lo importante: Hassabis se desmarcó de quienes afirman que ya se ha llegado a ese nivel de AGI. Explicó que la AGI debe igualar, no superar, el alcance humano. La superinteligencia, en cambio, representa otro rango completamente diferente: capacidades más allá de cualquier ser humano, como pensar en catorce dimensiones o conectar los datos de los satélites directamente al cerebro.

En la misma conversación en Davos, Dario Amodei, de Anthropic, insistió en que este avance plantea desafíos urgentes que deben manejarse con rigor técnico y cooperación internacional. Describió el momento actual no como una evolución tecnológica normal, sino como una adolescencia tecnológica crítica para la supervivencia de la especie.

Las predicciones que no se cumplieron

Elon Musk declaró que la AGI sería una realidad en 2026, citando la evolución de los modelos desarrollados por empresas como xAI y OpenAI. Sin embargo, voces como la de Andrej Karpathy, cofundador de OpenAI, sostienen que falta al menos una década más para verla plenamente. Sam Altman proyectó que para el 2028 veremos una IA capaz de hacer descubrimientos científicos.

El problema con estas predicciones es que los expertos han estado consistentemente equivocados sobre los tiempos. Hace un año, el 98% de los expertos decían que llegaríamos a la superinteligencia antes del 2030 o el 2035. Hoy, solo el 70% lo cree. Daniel Stilerman, exlíder de datos e inteligencia artificial de Google Argentina, explicó que, aunque no le gustaría que llegara tan pronto, los nuevos modelos de IA hacen difícil negar que estamos avanzando rápido.

Sin embargo, un estudio del Instituto de Investigación de Pronósticos ofrece una visión más matizada. Los investigadores liderados por el economista Ezra Karger consultaron a una amplia gama de profesionales, incluidos los científicos informáticos y los investigadores de IA, para evaluar los avances esperados. Sus hallazgos presentan un marcado contraste con los cronogramas optimistas formulados por los ejecutivos tecnológicos.

Por qué algunos expertos dicen que la AGI es imposible

IA 2026: arquitectura visual de flujos de decisión donde humanos y agentes artificiales coordinan procesos inteligentes

Yann LeCun propone rebautizar la AGI como "inteligencia mecánica avanzada" y argumenta que la inteligencia humana es demasiado especializada como para poder ser replicada. Un informe reciente sugiere que, aunque la IA puede ser una herramienta fundamental para lograr nuevos descubrimientos, no tiene la capacidad de realizarlos de manera autónoma.

El informe señala que más inteligencia puede llevar a experimentos mejor diseñados y gestionados, lo que se traduce en más hallazgos por experimento. Pero incluso la mejor máquina analizando los datos existentes puede no ser capaz de encontrar una cura para el cáncer. La razón es simple: descubrir cosas nuevas requiere una experimentación física, no solo un análisis de datos.

Algunos expertos sostienen que la inteligencia humana es mucho más compleja y diversa de lo que recoge la definición actual de AGI. Hay especialistas en inteligencia artificial que interpretan la mente humana en términos de ocho tipos de inteligencia, de las cuales la lógico-matemática es solo una. Junto a ella existirían la inteligencia interpersonal, la intrapersonal o la existencial.

El problema con los límites tecnológicos

Daniel Stilerman explicó en una entrevista reciente que para llegar a la superinteligencia, alguien tendría que inventar algo completamente nuevo. Los modelos actuales como ChatGPT, Claude y Gemini son como un motor al que le metiste más cilindros. Para llegar a la superinteligencia, necesitaríamos inventar la turbina, que no funciona como un motor.

Va a llegar un momento en el que más cilindros no hacen más potencia, sino que hacen menos. La sensación de algunos expertos es que empiezan a notarse esos problemas fundamentales. La mayoría de los expertos creen que la Ley de Moore llegará a su fin en esta década. Sin embargo, la naturaleza única de la computación cuántica podría utilizarse para entrenar de forma eficiente las redes neuronales.

Los algoritmos de IA ejecutados en ordenadores cuánticos estables podrían tener la oportunidad de desbloquear la singularidad. Pero esto sigue siendo altamente especulativo. El resultado de las encuestas actuales a los investigadores de IA sitúa la AGI en torno al 2040, según un informe reciente. Sin embargo, apenas unos años antes de los rápidos avances en los grandes modelos de lenguaje, los científicos la situaban alrededor del 2060.

Los riesgos reales que preocupan en 2026

Más de 850 figuras públicas, entre ellas los líderes en el sector de la inteligencia artificial y de la tecnología, pidieron frenar la carrera para crear una forma de IA que supere el intelecto humano. Expertos como el premio Nobel Geoffrey Hinton y Yoshua Bengio, ampliamente considerados los "padrinos de la IA", firmaron la carta.

La superinteligencia se define de forma general como una inteligencia artificial que supera las capacidades cognitivas humanas, algo que, según temen algunos expertos tecnológicos, podría hacer que los humanos perdieran el control de estos sistemas. Que las máquinas tomen el control sería el resultado por defecto, según predijo el célebre informático Alan Turing en la década de 1950.

Amodei fue tajante al criticar la venta de semiconductores avanzados a los adversarios geopolíticos, comparándolo con la decisión de vender armas nucleares a Corea del Norte por simples beneficios empresariales. Los riesgos vinculados a la AGI ocuparon el centro de la conversación en Davos, con énfasis en la necesidad de la cooperación internacional.

La realidad que sí está pasando en 2026

Mientras el debate sobre la superinteligencia consume los titulares, la IA real de 2026 está haciendo cosas mucho más prácticas y medibles. La industria está cambiando de modelos cada vez más grandes a sistemas que realmente funcionan en la vida diaria. Los agentes de IA finalmente están pasando de las demos a la práctica, gracias a los protocolos como el MCP de Anthropic.

Los modelos pequeños y eficientes están ganando la batalla. No todos necesitamos el modelo más poderoso del planeta para resumir los correos o programar las reuniones. La IA "edge" está pasando de ser puro marketing a una realidad. DeepSeek, una startup china, publicó en enero un paper mostrando cómo entrenar modelos de IA competitivos con una fracción del costo y el poder computacional que usan las empresas estadounidenses.

El entusiasmo por la AGI convive con las dudas técnicas y éticas. La masificación de los agentes inteligentes trae consigo riesgos, desde la huella ambiental hasta el desplazamiento laboral. Además, existen límites prácticos: la IA física todavía enfrenta barreras técnicas para igualar las destrezas humanas en todos los campos.

Para los fundadores de startups y las empresas, la clave está en aprovechar la madurez de la IA aplicada: identificar los nichos donde la automatización y los agentes inteligentes brinden ventajas competitivas. La creación de valor pasa de las expectativas teóricas de AGI a los resultados específicos y medibles, con una atención creciente a la colaboración humano-máquina y a la integración ética en los modelos de negocio.

La conversación sobre la AGI refleja tanto las aspiraciones como las realidades. Aunque el consenso sobre su llegada aún no existe, la innovación en la IA aplicada y los agentes autónomos está transformando el panorama tecnológico. El reto es permanecer informados, evaluar críticamente la narrativa del sector y experimentar con casos reales, sin dejarse llevar por el hype de la superinteligencia que quizás nunca llegue, o que llegue de formas que nadie anticipó.


Si este contenido te fue útil, puedes apoyar el trabajo editorial de GlitchMentalMX.

Apoyar en Ko-fi →