Tres empresas que compiten ferozmente por talento, contratos y narrativa pública acordaron el 6 de abril de 2026 compartir su inteligencia de seguridad más sensible. El objetivo: bloquear a DeepSeek, Moonshot AI y MiniMax, tres laboratorios chinos acusados de extraer las capacidades de los modelos estadounidenses a escala industrial. El vehículo es el Frontier Model Forum, un organismo sin fines de lucro que ellas cofundaron con Microsoft en 2023 y que hasta ahora había servido principalmente para emitir compromisos de seguridad ante el Congreso.
Qué es la destilación adversarial y por qué importa
La destilación adversarial es la práctica de consultar masivamente a un modelo de IA de frontera — como Claude o GPT — y usar esas respuestas como datos de entrenamiento para construir un modelo más barato que imita sus capacidades. No se roban los pesos del modelo, que son inaccesibles. Se roba el comportamiento del modelo a través de millones de preguntas diseñadas para extraer patrones de razonamiento, conocimiento especializado y cadenas de respuesta.
Anthropic documentó 16 millones de intercambios con Claude generados por aproximadamente 24,000 cuentas fraudulentas vinculadas a DeepSeek, Moonshot AI y MiniMax, según reportó Bloomberg el 6 de abril de 2026. OpenAI presentó una denuncia formal ante el Subcomité de la Cámara de Representantes de EE. UU. sobre China, acusando a DeepSeek de usar métodos cada vez más sofisticados para extraer capacidades de sus modelos. Google identificó y bloqueó actividad similar con más de 100,000 prompts dirigidos a las capacidades de razonamiento de Gemini.
Tres empresas que no comparten nada voluntariamente llegaron a un acuerdo de inteligencia compartida. Eso solo ocurre cuando la amenaza supera el costo de cooperar.
El cambio de función que nadie estaba esperando
El Frontier Model Forum fue fundado en julio de 2023 como un organismo de autorregulación centrado en investigación de seguridad, mejores prácticas y posicionamiento ante reguladores. En tres años, no había tomado ninguna acción operativa conjunta contra un adversario externo específico. Eso cambió el 6 de abril.
La alianza de inteligencia compartida convierte al Forum en algo funcionalmente distinto: un centro de coordinación de amenazas activas, modelado según los mecanismos de intercambio de inteligencia que la industria de ciberseguridad desarrolló hace décadas con los Information Sharing and Analysis Centers (ISAC). Cuando una de las tres empresas detecta un patrón de ataque, lo comparte con las otras para que actualicen sus sistemas de detección.
Lo que esto no resuelve
La alianza compra tiempo, pero no cierra el problema de fondo. Si un laboratorio pudo construir un modelo con el 80–90% del rendimiento de los modelos estadounidenses usando llamadas de API coordinadas — como sugieren las investigaciones internas de las tres empresas — la ventaja competitiva del entrenamiento costoso es menos sólida de lo que los laboratorios asumen públicamente. El siguiente actor no usará 24,000 cuentas. Usará 240,000 distribuidas en 50 proveedores.
Hay un problema adicional que el framing de "robo de propiedad intelectual" oculta: cuando un modelo es destilado a partir de Claude o GPT sin los filtros de alineación, las capas de seguridad, el entrenamiento de rechazo y los controles de daño no se transfieren. Una copia de capacidades sin copia de salvaguardas, desplegada a escala gubernamental para vigilancia o desinformación, es la amenaza de seguridad que Anthropic ha señalado explícitamente en su argumentación ante el Congreso estadounidense. No es una disputa comercial. Es una pregunta sobre qué versión de la IA se normaliza en regímenes que no responden a regulación occidental.
