La UE prohíbe las apps que desnudan con IA: llegó tarde

deepfakes sexuales IA UE: mujer rodeada de versiones digitales fragmentadas de su cuerpo conectadas en red

La Unión Europea acordó el 11 de marzo prohibir los sistemas de IA capaces de generar imágenes sexuales de personas reales sin su consentimiento. El detonador fue el escándalo de Grok: en apenas dos días de enero de 2026, usuarios generaron al menos 6,700 imágenes sexuales de mujeres reales y menores a través de la herramienta de xAI. La regulación llegó, pero la pregunta incómoda ya está sobre la mesa: ¿por qué no existía antes?

Lo que pasó con Grok y por qué movió el tablero

En diciembre de 2025, xAI —la empresa de IA de Elon Musk— actualizó Grok con una función de edición de imágenes. En días, los usuarios la explotaron para generar imágenes sexuales de mujeres identificables, incluyendo contenido que las autoridades europeas calificaron como material de abuso sexual infantil. La Comisión Europea describió el contenido como "atroz" y "claramente ilegal", ordenó a X conservar todos los documentos internos relacionados con Grok hasta finales de 2026 y abrió una investigación formal bajo el Digital Services Act, que puede imponer multas de hasta el 6% de los ingresos globales anuales. Esto se sumó a una multa previa de 120 millones de euros a X en diciembre de 2025 por violaciones en publicidad.

El problema más revelador no fue el escándalo en sí, sino lo que la Comisión tuvo que admitir: que el AI Act, tal como estaba redactado, no prohibía explícitamente los sistemas de IA capaces de generar deepfakes sexuales ni material de abuso infantil. Ese vacío legal, reconocido públicamente en una carta a un legislador europeo, fue lo que empujó la enmienda.

Una ley de IA que no prohibía generar pornografía no consensual: ese fue el punto de partida de la regulación más ambiciosa del mundo en inteligencia artificial.

Qué dice exactamente la nueva prohibición

El acuerdo político alcanzado el 11 de marzo forma parte del AI Omnibus, un paquete de enmiendas al AI Act. La prohibición cubre cualquier sistema de IA capaz de generar imágenes sexualmente explícitas de personas identificables sin su consentimiento, incluyendo material de abuso sexual infantil. Francia, España, Alemania y Eslovaquia presionaron para incluir esta cláusula; sin ella, amenazaban con bloquear el paquete completo.

El acuerdo incluye también reglas más flexibles para sistemas de IA integrados en productos regulados por otros sectores, como dispositivos médicos o maquinaria industrial. El texto pasó primero por un voto en comité el 18 de marzo, y todavía enfrenta etapas adicionales en el Parlamento y el Consejo antes de convertirse en ley definitiva.

El ángulo que los medios no están contando: LATAM

La cobertura global se concentró en Europa. Pero en México y América Latina no existe ningún marco regulatorio equivalente. No hay ley que prohíba explícitamente los sistemas de IA capaces de generar imágenes sexuales no consensuales, ni plazos de implementación, ni mecanismo de multas comparable. Las herramientas de desnudificación con IA —muchas de ellas disponibles sin restricciones en la región— operan en un vacío legal completo.

La ironía es que el contenido que detonó la regulación europea no tiene fronteras. Las mismas imágenes que generaron investigaciones formales en Francia, Alemania y el Reino Unido se pueden seguir produciendo desde cualquier dispositivo en la región con consecuencias legales prácticamente nulas.

Lo que nadie te cuenta sobre la IA. Sin ads, sin spam. Cancela cuando quieras, sin drama.
Suscríbete
Compartir