Deepfakes en Telegram: la violencia sexual tiene algoritmo

deepfakes en Telegram: mujer con rostro manipulado por cables conectados a pantallas con rostros digitales

Crear un deepfake sexual en 2023 requería GPU, conocimientos de programación y tiempo. En 2026, requiere una cuenta de Telegram. La IA generativa eliminó la barrera técnica — y lo que queda es una infraestructura organizada de violencia contra mujeres operando en plena vista.

Qué reveló la investigación de enero de 2026

Una investigación publicada en enero de 2026 documentó la operación de al menos 150 canales en Telegram que distribuyen imágenes íntimas no consentidas generadas con IA — los llamados deepfakes desnudos. Los canales funcionan mediante bots que permiten subir una foto de cualquier persona y recibir versiones manipuladas en cuestión de minutos, sin conocimiento técnico necesario.

La respuesta de Telegram consistió en retirar más de 952,000 archivos relacionados con pornografía deepfake durante 2025. El número ilustra la escala del problema, pero también su naturaleza: cuando se reporta y elimina un bot, aparecen dos nuevos con nombres diferentes en cuestión de horas. La plataforma funciona como un entorno de baja fricción para este tipo de abuso precisamente porque su estructura de canales cifrados dificulta la supervisión sistemática.

El patrón: no es contenido espontáneo, es violencia organizada

Lo que distingue el fenómeno de una colección difusa de contenido ilícito es su organización. Los canales no solo distribuyen imágenes — también comparten consejos para evadir las barreras técnicas que los desarrolladores de IA intentan imponer, organizan el contenido por categorías detalladas y, en algunos casos documentados en Europa, cobran cuotas de acceso. En Portugal se descubrió un grupo con aproximadamente 70,000 miembros que requería un pago de 20 euros para ingresar. En Alemania se encontraron grupos de tamaño similar que distribuían asesoría sobre violencia sexual.

Investigadores del Instituto para el Diálogo Estratégico de Londres han señalado que una parte sustancial de la actividad incluye un componente de boasting — alarde entre participantes sobre sus acciones — que revela un trasfondo explícitamente misógino. El objetivo no es solo acceder a contenido: es participar en la humillación colectiva de mujeres.

Los deepfakes sexuales no son pornografía. Son violencia sexual que usa la tecnología como arma. Llamarlos de otra forma es parte del problema.

El caso alemán y lo que movilizó

En marzo de 2026, el semanario alemán Spiegel publicó una investigación sobre la actriz Collien Fernandes, quien acusa a su exesposo de distribuir videos sexuales falsos generados con IA. El caso desencadenó manifestaciones masivas en Berlín, Fráncfort y Hamburgo, organizadas por el colectivo Vulver bajo la consigna de que Alemania funciona como un "paraíso para los agresores" en materia de violencia digital. La Fiscalía alemana abrió una investigación preliminar. El caso es comparado públicamente con el de Gisèle Pelicot en Francia — no por sus circunstancias, sino por la visibilidad que le dio al problema estructural.

El vacío legal que amplifica el daño

Según datos combinados del Banco Mundial y la ONU, solo el 40% de los países cuenta con leyes específicas para proteger a mujeres y niñas del acoso o la violencia digital. Estados Unidos aprobó en 2025 una ley federal contra la distribución no autorizada de imágenes sexuales reales o generadas con IA, con apoyo bipartidista. En América Latina, el MESECVI presentó una Ley Modelo Interamericana que establece obligaciones concretas para plataformas — preservación de evidencia, eliminación oportuna de contenidos, colaboración con la justicia — pero su adopción depende de cada país.

La asimetría es radical: el contenido se distribuye en segundos; los mecanismos legales tardan meses o años en responder. Las víctimas — mujeres en más del 95% de los casos documentados — enfrentan consecuencias que incluyen pérdida de empleo, aislamiento social y síntomas consistentes con trastorno de estrés postraumático, en un contexto donde la imagen no puede ser "recuperada" una vez que circula.

Lo que la tecnología tiene que ver con esto

La democratización de los modelos de difusión de código abierto fue un avance genuino para usos creativos y educativos. También fue la herramienta que eliminó la última barrera de entrada para este tipo de abuso. Las empresas de IA no crearon estos bots, pero los modelos que desarrollaron — y que liberaron como código abierto en algunos casos — son la materia prima. La discusión sobre responsabilidad técnica en este contexto apenas está comenzando.

Lo que nadie te cuenta sobre la IA. Sin ads, sin spam. Cancela cuando quieras, sin drama.
Suscríbete

Cookies

Usamos cookies para mejorar tu experiencia. Política de privacidad.