Meta está capturando los movimientos del mouse, los clics y las pulsaciones de teclado de sus empleados para entrenar sus modelos de IA. No es rumor: la compañía lo comunicó oficialmente mediante un memo interno. El programa arranca justo cuando Zuckerberg prepara recortes de hasta el 20% de la plantilla, con los primeros despidos programados para mayo.
Qué está pasando exactamente
Según reportó Reuters y confirmó TechCrunch el 21 de abril, Meta instaló una herramienta interna que registra la actividad de los empleados en un conjunto de aplicaciones y sitios de trabajo: Google, LinkedIn, Wikipedia, GitHub, Slack y plataformas de Atlassian, entre otros. El software captura cómo los trabajadores navegan menús desplegables, usan atajos de teclado, hacen clic en botones y llevan a cabo las tareas cotidianas frente a la pantalla.
El memo, distribuido en un canal del equipo de Meta Superintelligence Labs, encuadró la iniciativa como una contribución voluntaria: los empleados podían "hacer su parte con solo hacer su trabajo diario." La lógica declarada es que si Meta quiere construir agentes de IA capaces de completar tareas en computadoras, sus modelos necesitan ejemplos reales de cómo los humanos las hacen.
Si estamos construyendo agentes para ayudar a la gente a completar tareas cotidianas en computadoras, nuestros modelos necesitan ejemplos reales de cómo la gente las usa. — Portavoz de Meta, citado por TechCrunch
Por qué importa: el pipeline tiene dos extremos
La ironía del programa no es accidental. Zuckerberg comprometió hasta 135 mil millones de dólares en gasto de capital para 2026, gran parte destinado a infraestructura de IA, según Fortune. Al mismo tiempo, la empresa está preparando recortes de hasta el 20% de su fuerza laboral. Los empleados que hoy generan datos de entrenamiento son, en muchos casos, los mismos que la IA entrenada con esos datos está diseñada para sustituir a largo plazo.
Este modelo no es exclusivo de Meta. La semana del 16 de abril, Forbes reportó que startups inactivas estaban siendo adquiridas para extraer sus archivos de Slack, tickets de Jira y comunicaciones internas como material de entrenamiento. OpenAI, por su parte, estuvo solicitando a contratistas externos muestras de trabajo real —presentaciones, hojas de cálculo— con instrucciones de eliminar datos confidenciales antes de enviarlos. El trabajo humano como commodity de entrenamiento es ya una práctica de industria, no una excepción.
Qué cambia en la relación empresa-empleado
La vigilancia corporativa —conocida como bossware— existe desde hace años en muchas compañías. Lo nuevo aquí no es el monitoreo en sí: es el destino explícito de los datos. Cuando una empresa registra las pulsaciones de sus empleados para optimizar su productividad, el contrato implícito es "te observamos para que rindas más." Cuando los registra para entrenar modelos que reemplacen esas funciones, el contrato cambia de naturaleza. El empleado ya no es el beneficiario del análisis. Es la fuente de datos del proceso que lo vuelve prescindible.
Meta aseguró que hay salvaguardas para proteger información sensible y que los datos no se usarán con ningún otro propósito. Lo que la compañía no explicó es quién define qué cuenta como "sensible" dentro de conversaciones de trabajo en Slack o navegación en LinkedIn, ni qué ocurre con esos datos si el empleado es despedido en mayo.
El programa arranca en EE.UU., donde las protecciones laborales sobre vigilancia en el lugar de trabajo varían por estado y son considerablemente más débiles que en Europa, donde el GDPR impondría restricciones significativas a este tipo de recolección de datos. La pregunta de si Meta extenderá el programa a sus operaciones internacionales —incluyendo América Latina, donde tiene oficinas en México, Brasil y Argentina— no fue respondida en las declaraciones publicadas.

