Sam Altman admite: la IA rompe el equilibrio laboral

Automatización laboral IA: balanza industrial con documentos pesa más que trabajadora en oficina

El 11 de marzo de 2026, Sam Altman habló en el BlackRock Infrastructure Summit en Washington D.C. y dijo algo que pocas personas en su posición dicen en voz alta frente a inversores: que la IA está quebrando un equilibrio que el capitalismo ha dado por sentado durante siglos. 

La cita exacta, tomada de la transcripción oficial del evento, fue la siguiente: "El capitalismo ha dependido de cierto equilibrio de poder entre el trabajo y el capital, pero si es difícil superar a una GPU en la mayoría de los trabajos actuales, eso cambia." Luego agregó que tenía una lista de diez cosas cambiando al mismo tiempo y que se quedaron sin tiempo.

No es la primera vez que Altman habla del impacto laboral de la IA, pero sí es la primera vez en meses que lo hace con este nivel de franqueza sobre la ausencia de respuestas, no solo sobre la magnitud del problema.

Qué dijo exactamente y qué no dijo

Altman describió el momento actual como un umbral de "utilidad económica mayor": la IA ya no solo ayuda con código básico, sino que está ejecutando tareas complejas en múltiples áreas del trabajo del conocimiento. Predijo que muy pronto los agentes de IA serán capaces de manejar tareas de varios días o semanas de forma autónoma, operando de manera similar a un empleado senior.

También diferenció entre el AI washing —empresas que culpan a la IA de despidos que habrían hecho de todas formas— y el desplazamiento real. Según Fortune, declaró: "Los centros de datos están siendo culpados por el aumento en los precios de la electricidad. Casi todas las empresas que hacen recortes culpan a la IA, lo usen o no." Pero dejó claro que debajo del ruido hay desplazamiento genuino en curso.

Su proyección más concreta: para finales de 2028, la capacidad cognitiva dentro de los centros de datos podría superar a la humana fuera de ellos. Eso incluye, según él mismo dijo, a los CEOs, presidentes de países y científicos de primer nivel, que no podrán hacer su trabajo sin depender intensamente de la IA.

Lo que los datos independientes dicen sobre ese escenario

Aquí es donde el panorama se complica. Un reporte reciente del Yale Budget Lab, citado por Fortune, analizó datos del Bureau of Labor Statistics y no encontró diferencias significativas en los patrones de empleo entre trabajadores con alta exposición a la IA y el resto de la fuerza laboral, desde el lanzamiento de ChatGPT hasta noviembre de 2025. La directora del laboratorio, Martha Gimbel, fue directa: al observar los datos actuales, no hay evidencia de efectos macroeconómicos mayores por la IA en este momento.

Por otro lado, el economista Erik Brynjolfsson, del Digital Economy Lab de Stanford, identificó una divergencia en los datos de 2025: el crecimiento del PIB del cuarto trimestre se revisó al alza, mientras que el crecimiento del empleo fue modesto. Su interpretación es que los beneficios de productividad de la IA están empezando a aparecer en los datos, pero de forma asimétrica: los trabajadores de inicio de carrera en empleos con alta exposición a la IA mostraron una caída relativa del 13% en el empleo, mientras que los trabajadores más experimentados se mantuvieron estables o crecieron.

El ajuste que nadie sabe cómo diseñar

Lo más revelador del discurso de Altman no fue ninguna predicción específica. Fue la admisión de que la transición que se avecina es de una naturaleza diferente a las anteriores. Altman dijo que los próximos años serán "un ajuste doloroso" con debates "muy intensos e incómodos" sobre cómo remodelar la sociedad. No ofreció una propuesta concreta sobre cómo abordar el desequilibrio que él mismo describió.

Ese vacío es significativo. El CEO de la empresa más influyente en el desarrollo de IA generativa describió un problema estructural del capitalismo sin proponer ninguna solución. No habló de redistribución, de renta básica, de regulación del ritmo de despliegue ni de ningún mecanismo de transición laboral. Solo dijo que hay que hablar de ello.

Lo que sí es concreto es la dirección que OpenAI está tomando: infraestructura masiva, centros de datos de gigawatts, y una meta de hacer la inteligencia tan barata que sea inviable no usarla. El modelo de negocio y el diagnóstico social van en la misma dirección. Que alguien con ese nivel de influencia lo diga en voz alta, frente a los inversores que financian ese modelo, es la novedad.