Sam Altman dice que el AGI llegará en años. Demis Hassabis dice que hay un 50% de probabilidad para 2030. Yann LeCun dice que el concepto mismo es un error. Dario Amodei lo espera para 2027. Un investigador de Epoch AI argumenta que falta al menos una generación. Todos hablan de lo mismo — y ninguno usa la misma definición.
Esa no es una anécdota sobre el desacuerdo en tecnología. Es la historia central sobre el concepto que más está moldeando la inversión, la regulación y el imaginario colectivo de la inteligencia artificial en este momento.
Qué es realmente el AGI: el problema de definir lo indefinible
La Inteligencia Artificial General — Artificial General Intelligence o AGI por sus siglas en inglés — se refiere en su acepción más común a un sistema de inteligencia artificial capaz de realizar cualquier tarea cognitiva que un ser humano pueda realizar, con igual o mayor competencia, en cualquier dominio. No solo jugar ajedrez mejor que cualquier humano, sino también diagnosticar enfermedades, escribir código, negociar contratos, hacer investigación científica original y aprender nuevas habilidades sin reentrenamiento especializado.
El problema es que esa definición, aparentemente clara, se fragmenta en cuanto se intenta operacionalizar. ¿Debe el sistema tener conciencia? ¿Debe poder aprender de forma continua como los humanos, o basta con que su desempeño en benchmarks supere el promedio humano? ¿Se cuenta como AGI un sistema que supera a los humanos en el 95% de las tareas cognitivas pero falla en el 5% restante? No existe un consenso técnico sobre ninguna de esas preguntas. Y sin esa definición, las predicciones de fecha son matemáticamente vacías: estamos contando el tiempo que falta para llegar a un destino que nadie ha sabido describir con precisión.
Dónde está hoy: lo que los modelos actuales pueden y no pueden hacer
Los sistemas de IA actuales —GPT-4o, Gemini 1.5, Claude 3— superan a la mayoría de los humanos en benchmarks específicos de razonamiento matemático, codificación, comprensión de texto y síntesis de información. En enero de 2026, en el Foro Económico Mundial de Davos, Dario Amodei afirmó que el AGI llegaría probablemente en 2027 y argumentó que los sistemas actuales ya pueden manejar la mayoría de las tareas de ingeniería de software de extremo a extremo. Demis Hassabis, fundador de DeepMind y uno de los investigadores más rigurosos del campo, mantuvo en el mismo foro una postura más cautelosa: alrededor del 50% de probabilidad de alcanzar el AGI antes del cierre de la década.
Lo que los sistemas actuales no tienen es igualmente relevante. No tienen razonamiento causal genuino — pueden correlacionar patrones pero no entienden mecanismos causales de la forma en que lo hace un científico. No tienen conocimiento temporal continuo — no saben qué pasó ayer a menos que se les diga. No tienen cuerpo ni experiencia física del mundo. Y no tienen, según el estado actual del conocimiento, nada que se aproxime a la conciencia o la subjetividad. Que esas ausencias sean obstáculos para el AGI o simplemente irrelevantes para él es exactamente lo que está en disputa.
El debate real: ¿importan las fechas?
La encuesta más amplia de investigadores de IA realizada en 2023 produjo una mediana de 2047 para cuando la IA pudiera realizar cualquier tarea mejor y más barato que los humanos. Pero la varianza en esa misma encuesta es el dato más revelador: el 10% de los encuestados dijo 2027 y otro 10% dijo después del año 2100. Ese rango no es un desacuerdo sobre timing. Es un desacuerdo sobre qué es la inteligencia y si la arquitectura actual tiene alguna relación con ella.
Los mercados de predicción como Kalshi, en enero de 2026, asignaron un 40% de probabilidad a que OpenAI alcance el AGI antes de 2030. Polymarket asignó solo un 9% a que ocurra antes de 2027. El proyecto AI 2027 — el análisis más detallado publicado sobre un escenario de AGI próximo — revisó su propia proyección a finales de 2025, moviendo el horizonte central de 2027 a 2030, admitiendo que el progreso está avanzando más lento de lo que originalmente proyectaron.
La revisión de ese informe, lejos de tranquilizar, ilustra el problema de fondo: las predicciones de AGI se ajustan constantemente sin que ninguno de sus autores cambie de opinión sobre la dirección general. La fecha se mueve; la certeza de que llega, no. Y esa certeza, fundada o no, tiene consecuencias reales hoy.
El AGI no necesita existir para tener poder. Como concepto, ya está reorganizando la inversión global, la regulación y el debate público sobre el futuro de la humanidad. Eso es poder suficiente para tomarlo en serio, aunque nadie sepa exactamente qué es.
Qué cambia y cuándo: lo que importa más que la fecha
La pregunta productiva no es cuándo llegará el AGI sino qué cambios estructurales está produciendo la anticipación del AGI, independientemente de si llega o no. Y ahí la respuesta es concreta. La inversión en infraestructura de IA se está acelerando a escala sin precedente: centros de datos, chips especializados, consumo energético. La regulación está siendo diseñada en torno a capacidades que todavía no existen. Los sistemas educativos están siendo cuestionados por su incapacidad de preparar a las personas para un mundo donde las máquinas dominan las habilidades cognitivas que esos sistemas valoran. Y las empresas están tomando decisiones de contratación, reorganización y estrategia basadas en proyecciones de cuándo sus funciones actuales serán automatizables.
Que el AGI llegue en 2027, en 2035 o en 2050 cambia la escala temporal de esos efectos, pero no los cancela. Los sistemas actuales — sin ser AGI por ninguna definición seria — ya están reconfigurando el trabajo cognitivo, ya están reconfigurando industrias, ya están generando concentración de poder económico en los actores que controlan los modelos fundacionales. Esperar al AGI para tomar eso en serio es como esperar al huracán de categoría 5 para evacuarse, cuando la tormenta tropical ya te quitó el techo.
Por qué importa en México y LATAM: el riesgo de la narrativa importada
En la región, el debate sobre el AGI llega principalmente a través de los marcos narrativos que producen las empresas tecnológicas de Silicon Valley y los medios angloparlantes que las cubren. Esos marcos tienen un sesgo específico: mezclan la descripción técnica con el interés comercial de las empresas que están recaudando capital basándose en la proximidad del AGI, y con el interés geopolítico de Estados Unidos en liderar la carrera de la IA. América Latina necesita analizar el AGI con sus propias preguntas, no con las preguntas que Silicon Valley quiere que hagamos. Las preguntas relevantes para la región no son cuándo llega el AGI sino quién lo controla cuando llegue, qué capacidad tiene la región de influir en esa tecnología, y cómo se construye soberanía tecnológica antes de que el debate se cierre.

