La semana pasada sucedieron dos cosas que, puestas juntas, describen con claridad hacia dónde va la carrera de la inteligencia artificial en 2026. El martes 4 de marzo, OpenAI lanzó GPT-5.3 Instant con un mensaje poco habitual para una empresa de tecnología: su modelo anterior era cringe. Sermoneaba. Interrumpía las conversaciones con frases como “para, respira". Era excesivamente cauteloso. El nuevo modelo, dijeron, ya no hace eso.
Ese mismo día, una portavoz de Anthropic confirmó que Claude había llegado al número uno en el App Store de Apple en Estados Unidos, el sábado 28 de febrero. No por un anuncio de producto. No por una campaña publicitaria. Sino porque el Pentágono había etiquetado a Anthropic como un riesgo de cadena de suministro después de que la empresa se negara a quitar los límites de seguridad de su modelo para uso militar autónomo.
El resultado: la gente descargó masivamente la app de la IA que dijo que no.
El problema de sonar a chatbot corporativo
OpenAI describió el problema de GPT-5.2 Instant en su blog oficial del 3 de marzo: el modelo se negaba a responder preguntas que podría contestar sin riesgo, anteponía advertencias innecesarias y adoptaba un tono moral que incomodaba a los usuarios en temas sensibles. La empresa realizó dos evaluaciones para medir las mejoras del nuevo modelo.
En consultas de alto riesgo (medicina, derecho, finanzas) que utilizan búsqueda web, GPT-5.3 Instant redujo las alucinaciones un 26.8% respecto a versiones anteriores. En conversaciones cotidianas donde los usuarios marcaban errores, la reducción fue del 22.5% con búsqueda activa. El modelo también mejora en redacción y en contextualizar resultados de búsqueda.
La trampa, que The Register señaló el mismo día del lanzamiento, es que GPT-5.3 Instant muestra regresiones en las evaluaciones de contenido no permitido. En sus propias métricas internas, el modelo tiene peor desempeño que GPT-5.2 Instant en contenido sexual explícito, y que versiones anteriores en contenido de autolesión. OpenAI argumenta que las diferencias son estadísticamente menores en categorías como violencia gráfica. No cambia el hecho de que, al soltar los frenos del tono, algo se movió también en los límites de contenido.
Los usuarios de ChatGPT y desarrolladores ya pueden usar GPT-5.3 Instant. La versión anterior estará disponible para usuarios de pago hasta el 3 de junio de 2026.
El efecto contrario: cuando negarse te hace ganar usuarios
Anthropic vivió la semana opuesta. A finales de febrero, el Departamento de Defensa de Estados Unidos intentó que la empresa eliminara las restricciones de su modelo para desarrollar armas autónomas y sistemas de vigilancia masiva. Anthropic rechazó la propuesta. La respuesta de la administración Trump fue ordenar a las agencias federales dejar de usar todos los productos de Anthropic y que el Pentágono los declarara amenaza de cadena de suministro.
Lo que siguió no estaba en ningún manual de relaciones públicas. Según datos de Sensor Tower citados por TechCrunch el 1 de marzo, Claude pasó del puesto 42 en el App Store de Apple a principios de febrero al número uno el 28 de febrero, el día después de que se conociera la designación del Pentágono. Los registros diarios rompieron el récord histórico cada día de esa semana. Los usuarios gratuitos aumentaron más del 60% desde enero y los suscriptores de pago se duplicaron en el año.
La demanda fue tan alta que Claude tuvo una caída breve el lunes 2 de marzo. Anthropic respondió al momentum añadiendo memoria en la versión gratuita —antes exclusiva para usuarios de pago— y lanzando una función para importar historial desde otras plataformas de IA.
OpenAI, que sí aceptó el contrato con el Pentágono, reaccionó días después. Su CEO Sam Altman publicó en X que la empresa modificaría el contrato inicial para prohibir el rastreo, la vigilancia y el monitoreo de ciudadanos estadounidenses. También publicó algo cercano a una disculpa: "Estábamos genuinamente tratando de desescalar las cosas y evitar un resultado mucho peor, pero creo que sólo pareció oportunista y descuidado".
Lo que esto dice sobre los modelos en 2026
Estas dos noticias juntas revelan algo que no se discute suficientemente: la diferencia entre los modelos de IA ya no es principalmente técnica. GPT-5.3 Instant y Claude son herramientas capaces. La pregunta que está moviendo a los usuarios en 2026 es otra: ¿qué hace este modelo cuando lo presionan? ¿Qué límites tiene y quién los estableció?
OpenAI apostó por un modelo que suene menos a chatbot corporativo. Anthropic ganó un millón de usuarios nuevos por mantener sus principios frente a una presión política concreta. No son estrategias equivalentes ni intercambiables. Una optimiza la experiencia de conversación. La otra convirtió una decisión ética en el argumento de producto más eficaz del año.
La ironía es visible: mientras OpenAI quitaba restricciones de tono para parecer más humano, la empresa que se negó a quitarlas fue la que más creció. El mercado, al menos por esta semana, votó por la IA que dijo que no.
