DeepSeek V4: la IA china que tiene a OpenAI en alerta máxima

deepseek-v4-ia-china-openai

Si pensabas que la carrera de la inteligencia artificial era solo entre OpenAI, Google y Anthropic, tengo noticias: China acaba de entrar al ring de forma brutal. Esta semana, OpenAI publicó una publicación en su blog advirtiendo sobre un potencial "shock sísmico" proveniente de China, justo cuando se cumplen 12 meses desde que DeepSeek lanzó su modelo R1 en enero de 2025.

El contexto es simple: DeepSeek está por lanzar su modelo V4 en febrero de 2026, y las pruebas internas sugieren que será devastadoramente bueno en tareas de programación, superando a los modelos de OpenAI y Anthropic en manejo de prompts largos y complejos, según reportó MarketingProfs.

OpenAI lo dijo claro en su publicación: "Estados Unidos sigue liderando en capacidades de modelos, pero lo que ha cambiado de forma decisiva es la profundidad y la capacidad de despliegue: China ahora tiene un campo amplio de modelos casi frontera, muchos de ellos de código abierto y de precio agresivo, haciéndolos más fáciles de implementar en industrias y sistemas gubernamentales".

Cómo DeepSeek cambió el juego en solo un año

Fundada en 2023, DeepSeek lanzó a finales de 2024 un modelo de lenguaje grande (LLM) de código abierto llamado V3, que según la empresa fue entrenado con chips menos potentes y a una fracción del costo de modelos construidos por OpenAI y Google. Semanas después, en enero de 2025, lanzó R1, un modelo de razonamiento que alcanzó o superó muchos de los LLMs líderes del mundo en benchmarks.

El lanzamiento de R1 en enero de 2025 "realmente sorprendió al mercado", dijo Alex Platt, analista senior en la firma de inversión D.A. Davidson. "La narrativa en ese momento era que China estaba de 9 a 12 meses detrás de Estados Unidos". Ese gap ahora se redujo a aproximadamente tres meses, según análisis de CLSA.

La promesa de un modelo que alcanzaba resultados similares a los sistemas más avanzados pero usando menos poder computacional levantó preocupaciones en el mercado sobre si la demanda de infraestructura de IA sería afectada. Las acciones de Nvidia cayeron 17% en un solo día, perdiendo cerca de $600 mil millones de su capitalización de mercado. Broadcom también cayó 17%, y ASML bajó 7%.

Once meses después, esas empresas no solo se recuperaron sino que continuaron creciendo. Pero la amenaza de DeepSeek sigue ahí, ahora más real que nunca.

Por qué DeepSeek V4 es diferente

El modelo V4 que se espera para febrero de 2026 tiene un enfoque específico en tareas de programación. Pruebas internas sugieren un rendimiento fuerte comparado con modelos de OpenAI y Anthropic, especialmente en el manejo de prompts extremadamente largos y complejos. Esto es crítico para desarrolladores trabajando en proyectos de software sofisticados.

DeepSeek ha ganado atención global por su enfoque de bajo costo y componentes parcialmente abiertos, convirtiéndose en central para los esfuerzos de China de fortalecer su ecosistema doméstico de IA en medio de creciente escrutinio sobre seguridad y prácticas de privacidad.

Pero hay más. El 2 de enero de 2026, DeepSeek publicó un paper describiendo un método más eficiente para desarrollar IA. El documento, co-autorado por el fundador Liang Wenfeng, introduce un framework llamado Manifold-Constrained Hyper-Connections (mHC). Está diseñado para mejorar la escalabilidad mientras reduce las demandas computacionales y energéticas del entrenamiento de sistemas avanzados de IA.

Wei Sun, analista principal de IA en Counterpoint Research, llamó a este enfoque "un avance sorprendente". El mHC permite escalar modelos sin que se vuelvan inestables o se rompan, algo que ha sido un problema constante en el desarrollo de LLMs masivos.

La estrategia de código abierto de China está funcionando

DeepSeek no está solo. Otras empresas chinas de IA que antes dudaban sobre comprometerse con el código abierto están siguiendo el playbook de DeepSeek. Destaca el GLM de Zhipu y el Kimi de Moonshot. La competencia también ha empujado a empresas estadounidenses a abrirse, al menos parcialmente. En agosto de 2025, OpenAI lanzó su primer modelo de código abierto. En noviembre, el Allen Institute for AI lanzó su último modelo de código abierto, Olmo 3.

Según MIT Technology Review, la adopción casi unánime del código abierto por parte de empresas chinas de IA les ha ganado buena voluntad en la comunidad global de IA y una ventaja de confianza a largo plazo. En 2026, se espera que más aplicaciones de Silicon Valley trabajen silenciosamente sobre modelos abiertos chinos, y el retraso entre lanzamientos chinos y la frontera occidental siga reduciéndose de meses a semanas, y a veces menos.

OpenAI reconoció esto en su publicación: "El código abierto de modelos de IA 'en semanas, en lugar de meses' ayudó a empresas tecnológicas chinas, incluyendo Alibaba Cloud, a impulsar la adopción global y hacer que estos productos sean los sistemas por defecto para muchos desarrolladores locales e internacionales".

Los mercados se tranquilizaron, pero la amenaza sigue ahí

A pesar del pánico inicial en enero de 2025, los mercados han sido tranquilizados por nuevos lanzamientos de modelos avanzados de laboratorios frontera en Occidente. En agosto de 2025, OpenAI reveló GPT-5, Anthropic lanzó Claude Opus 4.5, y Google lanzó Gemini 3 en noviembre. "La competencia entre estos proveedores es intensa con lanzamientos rápidos de modelos y mejora incremental en capacidades", dijo el analista de Gartner Arun Chandrasekaran. "Como resultado, los temores de un shock de comoditización repentina se han aliviado".

Pero hay señales de que DeepSeek se está preparando para un lanzamiento de modelo más significativo en los próximos meses. Dan Ives de Wedbush Securities piensa que hay más shocks en el mercado por venir. "Enero de 2025 causó una re-valoración amplia y visible porque cambió las creencias globales sobre las curvas de costo de los modelos frontera y la competitividad de China", dijo la analista de Gartner Haritha Khandabattu.

El problema para China no es solo tecnológico, es de acceso a hardware. Chris Miller, experto en semiconductores, señala que DeepSeek está luchando por conseguir poder de cómputo suficiente y que el contrabando no resolverá ese problema. Las restricciones de exportación de Estados Unidos sobre chips avanzados de Nvidia siguen siendo un obstáculo masivo para el desarrollo de IA en China.

Qué significa esto para el futuro de la IA

La carrera de la IA en 2026 ya no es solo sobre quién construye el modelo más grande. Es sobre quién puede desplegar modelos efectivos más rápido, a menor costo, y con mayor accesibilidad. DeepSeek está ganando en esos tres frentes.

Para desarrolladores y empresas, esto significa más opciones. Los modelos de código abierto chinos son cada vez más competitivos con los modelos cerrados de OpenAI y Google, y cuestan significativamente menos. Snowflake ya integró DeepSeek en su framework Cortex AI junto con OpenAI, Anthropic, Meta y Mistral. Rokid, la empresa de lentes inteligentes, también incluyó soporte para DeepSeek en sus dispositivos Style.

Pero también significa más complejidad regulatoria. Gobiernos en Australia, República Checa, Francia, Italia y Países Bajos han lanzado investigaciones o restricciones sobre DeepSeek citando preocupaciones de seguridad de datos y privacidad. Según la propia política de privacidad de DeepSeek, la empresa almacena numerosas piezas de datos personales, como solicitudes a su programa de IA o archivos subidos, en computadoras en China.

OpenAI está claramente nervioso. Su advertencia sobre un "shock sísmico" no es casual. Es una señal de que la ventaja tecnológica de Estados Unidos en IA está siendo desafiada seriamente por primera vez. La pregunta ya no es si China puede competir en IA, sino cuándo se convertirá en el líder global.

¿Usarías un modelo de IA chino si fuera más barato y más efectivo que GPT-5? ¿O las preocupaciones de privacidad y seguridad son suficientes para mantenerte alejado? El debate está abierto.