Google firmó un acuerdo con el Departamento de Defensa de EE.UU. para que el Pentágono use sus modelos de IA en redes clasificadas para "cualquier propósito gubernamental legal" — exactamente el lenguaje que Anthropic se negó a aceptar y que le costó ser declarada un riesgo en la cadena de suministro militar. Más de 600 empleados de Google firmaron una carta pidiéndole a Sundar Pichai que rechazara el acuerdo antes de que se firmara. El acuerdo se firmó de todas formas.
Qué dice el acuerdo — y qué no dice
Según The Information, el acuerdo permite al Pentágono usar los modelos de Gemini de Google para trabajo clasificado bajo el criterio de que el uso sea "legal". La clave está en lo que el acuerdo no incluye: Google no puede imponer restricciones adicionales a los usos que el gobierno considere legales, según reportaron The Verge y Slashdot citando fuentes del acuerdo. El lenguaje es el mismo que los contratos que el Pentágono ya firmó con OpenAI y xAI.
Google emitió un comunicado en el que declaró que la empresa mantiene que la IA no debería usarse para vigilancia doméstica a gran escala ni para armamento autónomo sin supervisión humana apropiada. Pero esa posición es la de Google — no una restricción contractual vinculante sobre lo que el Pentágono puede o no hacer con los modelos.
La carta que no cambió nada
La semana anterior a la firma, más de 600 empleados de Google enviaron una carta abierta a Pichai argumentando que negarse al trabajo clasificado era la única forma de garantizar que la IA de Google no fuera usada de formas perjudiciales. Según CBS News, la carta afirmaba que los firmantes quieren ver la IA beneficiar a la humanidad, "no ser usada de formas inhumanas o extremadamente dañinas."
En 2018, Google se retiró del Proyecto Maven tras protestas internas. En 2026 firmó el acuerdo militar de todas formas — y ningún empleado tuvo poder de veto.
El antecedente del Proyecto Maven es relevante. En 2018, la presión interna de empleados llevó a Google a no renovar su contrato con el Departamento de Defensa para análisis de imágenes de drones. Ese episodio se convirtió en un caso de estudio sobre el poder de los trabajadores tecnológicos para influir en las decisiones éticas de sus empleadores. El acuerdo de esta semana sugiere que ese poder — en la medida en que existió — ya no opera igual.
El mapa de quién firmó y quién no
El acuerdo de Google completa un cuadro claro: OpenAI, xAI y ahora Google están dentro del consorcio de IA clasificada del Pentágono. Anthropic está fuera — no por elección propia, sino porque el Departamento de Defensa la designó en marzo como "riesgo en la cadena de suministro" después de que su CEO Dario Amodei se negara a permitir el uso irrestricto de sus modelos. Anthropic demandó al Pentágono por esa designación mientras intenta seguir trabajando con otras partes del gobierno, según reportaron Yahoo News y Decrypt.
La divergencia es notable. Las empresas de IA han construido gran parte de su imagen pública sobre compromisos éticos y políticas de uso responsable. El Pentágono, en la práctica, está separando a las que mantienen esos compromisos como condición de los contratos de las que no. Anthropic pagó un costo comercial real por su posición. Google decidió que ese costo no valía la pena.
