El 20 de marzo de 2026, la Casa Blanca publicó un marco nacional de política de IA cuyo objetivo central es que el Congreso elimine la mayoría de las leyes estatales de IA y las reemplace con un estándar federal único. En términos prácticos: menos regulación, más centralizada, diseñada para que Silicon Valley opere con menos fricción.
Qué dice el framework
El documento —analizado en detalle por el despacho legal WilmerHale el 23 de marzo— recomienda al Congreso establecer un estándar federal que preempt (es decir, que anule y reemplace) a las leyes estatales de IA que "impongan cargas indebidas" al desarrollo de sistemas de inteligencia artificial. La lógica de la administración Trump es que 50 marcos legales distintos —uno por estado— crean una fragmentación que frena la innovación y complica el cumplimiento para las empresas.
El framework no tiene fuerza de ley por sí mismo: es una recomendación al Congreso. Pero la administración ya tiene una herramienta activa: en diciembre de 2025, el Executive Order 14365 creó una AI Litigation Task Force dentro del Departamento de Justicia con el mandato de impugnar leyes estatales de IA en tribunales federales. El framework de marzo define qué tipos de leyes serán el objetivo.
Qué leyes estatales están en la mira
El estado con la regulación de IA más completa en EE.UU. es Colorado, cuya ley —vigente desde el 30 de junio de 2026— exige a desarrolladores y desplegadores de sistemas de IA de alto riesgo realizar evaluaciones de impacto, gestionar riesgos y divulgar el uso de IA en decisiones de empleo, vivienda, crédito y salud. Es exactamente el tipo de ley que el framework de Trump busca neutralizar a nivel federal. La FTC también fue instruida a clasificar las leyes estatales que obliguen a mitigar sesgos algorítmicos como prácticas comerciales engañosas.
El contraste con Europa — y lo que le toca a LATAM
Mientras la administración Trump construye el argumento legal para reducir la rendición de cuentas de las empresas de IA ante los estados, la Unión Europea activa su AI Act con disposiciones de mayor impacto a partir de agosto de 2026. El AI Act europeo clasifica los sistemas de IA por nivel de riesgo e impone obligaciones concretas a los de alto riesgo, con multas de hasta el 7% de la facturación global para los casos más graves.
Para América Latina, el escenario tiene una implicación directa: la mayoría de los sistemas de IA que llegan a la región son desarrollados en EE.UU. Si el estándar estadounidense se vuelve explícitamente "mínimamente oneroso" —el término que usa el framework— las herramientas que usan millones de usuarios en México, Colombia, Argentina y el resto de LATAM serán productos diseñados para cumplir con el piso más bajo posible de obligaciones de transparencia y mitigación de riesgos. No porque alguien en LATAM lo haya decidido, sino porque el mercado de origen lo define así.
México no tiene hoy una ley específica de IA. La discusión sobre regulación en el país sigue en fase de propuestas y consultas sectoriales. Eso significa que, en la práctica, los sistemas de IA que operan en el mercado mexicano se rigen por las políticas del país donde fueron desarrollados. Si ese país adopta el estándar mínimo que propone el framework de Trump, México —como la mayoría de LATAM— importará también ese nivel de protección reducido. La única salida a esa dependencia pasa por legislación local, y en ese frente la región lleva años de retraso respecto a Europa.
El framework de Trump no busca regular la IA. Busca que nadie más pueda hacerlo.
