La empresa detrás de Claude, el asistente de inteligencia artificial que usas para múltiples tareas, se está peleando con el Pentágono. Y no es una pelea menor: en juego están los contratos del gobierno de Estados Unidos, el futuro de la IA en el ámbito militar y una pregunta que nadie había hecho tan en serio hasta ahora: ¿quién decide cómo se usa la IA, la empresa que la crea o el gobierno que la compra?
El contrato de los 200 millones de dólares
En julio de 2025, el Pentágono le otorgó a Anthropic un contrato de 200 millones de dólares para desarrollar capacidades de inteligencia artificial orientadas a la seguridad nacional. No fue algo exclusivo: rivales como OpenAI, Google y xAI recibieron contratos similares por el mismo monto. La idea era clara: meter la IA de punta en las operaciones de defensa de Estados Unidos.
Anthropic aceptó. Pero con condiciones. La empresa insistió en mantener ciertas restricciones sobre el uso de su modelo Claude, específicamente en lo relacionado con la vigilancia masiva doméstica y las armas autónomas. Para Anthropic, esos límites no son negociables, son parte de su filosofía de IA segura y responsable.
El ultimátum de Hegseth
El secretario de Defensa Pete Hegseth convocó al director ejecutivo de Anthropic, Dario Amodei, al Pentágono a principios de esta semana. El mensaje fue directo: el ejército quería acceso total y sin restricciones al modelo, y le dio a Amodei hasta el viernes para firmar un documento que lo garantizara.
Anthropic se negó. Y la respuesta del Pentágono fue escalar la situación: amenazó con designar a la empresa como un supply chain risk, es decir, un riesgo para la cadena de suministro. Esa etiqueta normalmente se reserva para empresas de países adversarios, como las compañías chinas que han sido expulsadas de contratos gubernamentales en Estados Unidos.
Que una empresa estadounidense reciba esa designación es inusual. Es, en términos prácticos, una forma de expulsarla de todos los contratos con el gobierno federal.
Lo que Anthropic defiende
La postura de Anthropic no es de ingenuidad ni de activismo forzado. La empresa tiene desde su fundación una misión declarada: desarrollar IA que sea segura para la humanidad. Sus límites sobre el uso militar no son caprichosos; responden a una política interna de no facilitar sistemas que puedan operar armas de forma autónoma o que sirvan para vigilar a la población civil sin supervisión.
Según lo reportado por CBS News, Anthropic sí ofreció al Pentágono la posibilidad de usar su IA para aplicaciones como la defensa antimisiles, pero manteniendo restricciones en las áreas más sensibles. El problema es que el ejército quiere el control total del modelo, sin que la empresa pueda poner condiciones sobre su uso.
Anthropic ha anunciado que impugnará la posible designación de riesgo ante los tribunales.
El fondo del asunto
Este conflicto va más allá de Anthropic y del Pentágono. Toca algo que va a definir la relación entre la industria de la IA y los gobiernos en los próximos años: ¿puede una empresa privada ponerle límites éticos a su tecnología cuando el comprador es el Estado?
OpenAI, Google y xAI, con contratos similares, no han generado este tipo de fricciones públicas. Eso dice algo sobre cómo cada empresa negocia internamente esos límites, o sobre si los tiene en absoluto.
La administración Trump, que ha impulsado una agenda de desregulación de la IA y ha firmado órdenes ejecutivas para acelerar su adopción en el gobierno, claramente no está dispuesta a aceptar que una empresa le diga qué puede o no puede hacer con una herramienta que paga con dinero público.
La pregunta que queda en el aire es si Anthropic resistirá la presión o terminará cediendo. Porque si cede, los límites que hoy defiende dejan de ser principios y se convierten en postura de marketing. Y si no cede, puede perder el acceso a uno de los mercados más grandes del mundo para la IA.
