Anthropic demanda al Pentágono: el caso que sacude la IA

demanda de Anthropic al Pentágono: mujer colocando documento en puerta metálica institucional

El Pentágono puso a Anthropic en una lista de riesgo nacional. Anthropic respondió con dos demandas federales. En el centro del conflicto: si Claude puede usarse para vigilancia masiva de ciudadanos y armas autónomas. La empresa dijo que no. El gobierno no lo aceptó.

Qué pasó exactamente

El 27 de febrero de 2026, el Secretario de Defensa Pete Hegseth designó a Anthropic como empresa de "riesgo de cadena de suministro" — una categoría reservada normalmente para compañías vinculadas a adversarios extranjeros como China o Rusia. La razón: Anthropic se negó a permitir el uso de Claude para dos propósitos específicos que el Departamento de Defensa solicitó. El primero, vigilancia masiva de ciudadanos estadounidenses. El segundo, sistemas de armas autónomas sin supervisión humana en la toma de decisiones.

La respuesta de Anthropic no tardó. El 9 de marzo presentó dos demandas federales: una en el Tribunal de Distrito de California Norte (un documento de 48 páginas) y otra ante el Tribunal de Apelaciones del Circuito de D.C. Los argumentos legales son directos: violación de la Primera Enmienda, violación del Acta de Procedimientos Administrativos y violación de la Cláusula del Debido Proceso. La empresa argumenta que ningún estatuto federal autoriza las acciones tomadas por el Pentágono.

La paradoja que nadie esperaba

La Casa Blanca respondió calificando a Anthropic de empresa "radical izquierdista y woke." Fue un error de cálculo. Al día siguiente del blacklist, la app de Claude superó a ChatGPT como la aplicación más descargada en el App Store de iPhone en Estados Unidos. Para el 5 de marzo, Anthropic reportó más de un millón de nuevos registros diarios.

Banear a Claude convirtió la demanda en publicidad gratuita. El Pentágono le hizo a Anthropic el favor de marketing más grande de su historia.

No es la primera vez que ocurre algo así. La reacción del público ante la percepción de que una empresa defiende principios frente al gobierno genera el efecto contrario al que busca la sanción. Pero en este caso el contexto es más serio que un rebote de popularidad.

Por qué este caso importa más allá de Anthropic

Lo que está en juego no es solo el destino legal de una empresa de IA. Es la pregunta de quién establece los límites éticos de cómo se usa la inteligencia artificial en contextos militares y de vigilancia.

Anthropic tiene una política explícita que prohíbe el uso de Claude para vigilancia masiva, armas autónomas y aplicaciones que puedan "causar daño a gran escala sin supervisión humana significativa." Esa política no es solo marketing: está integrada en los contratos de uso de la API y en los sistemas técnicos del modelo.

El Pentágono, al designar a la empresa como riesgo de cadena de suministro, está argumentando implícitamente que esas restricciones son inaceptables para el uso gubernamental. Si los tribunales respaldan esa posición, el precedente abre la puerta a que el gobierno pueda presionar a otras empresas de IA a remover restricciones similares.

Si los tribunales fallan a favor de Anthropic, el precedente es el opuesto: las empresas tienen el derecho legal de establecer condiciones de uso que el gobierno no puede anular mediante designaciones administrativas.

El estado actual del caso

Las demandas están en curso. Anthropic solicitó una medida cautelar para suspender los efectos del blacklist mientras se resuelve el fondo del caso. El Departamento de Defensa no ha respondido públicamente a los argumentos legales específicos.

La industria de IA está observando. Ninguna otra empresa grande de modelos de lenguaje ha hecho declaraciones públicas sobre el caso, lo que habla de lo delicado del territorio: criticar al Pentágono tiene costos, pero respaldar la posición del gobierno implica aceptar que los contratos militares no tienen límites éticos.

Es el primer caso legal de este tipo en la historia de la industria de la IA. Y probablemente no sea el último.