IA de TikTok genera deepfakes que alarman a autoridades

Deepfakes IA: jóvenes en entorno urbano interactuando con interfaces de Seedance 2.0, TikTok y logotipos de UNICEF.

ByteDance, la compañía matriz de TikTok, acaba de lanzar un modelo de inteligencia artificial para generación de video que está generando tanto asombro como alarma en partes iguales. Esta nueva IA, llamada Seedance 2.0, fue lanzada este fin de semana y sus prestaciones se han traducido en importantes subidas en bolsa para empresas del sector de entretenimiento, con algunas de ellas que alcanzaron el máximo diario de ganancias.

Según el portal de noticias económicas Caixin, este modelo puede generar metraje realista con movimientos fluidos, añadiendo además sonidos que cuadran con las imágenes. Esto sitúa por primera vez a ByteDance en capacidad de competir con KlingAI, desarrollada por la plataforma de videos cortos Kuaishou. Pero el lanzamiento llega en un momento crítico: justo cuando UNICEF acaba de reportar cifras alarmantes sobre el uso malicioso de la tecnología deepfake.

UNICEF reporta 1.2 millones de menores afectados

El 4 de febrero de 2026, UNICEF manifestó su profunda preocupación ante las constataciones del rápido aumento del volumen de imágenes sexualizadas generadas por IA que circulan por la red, incluidas fotografías de niños y niñas manipuladas y sexualizadas. Los deepfakes (imágenes, videos o grabaciones de voz generados o manipulados por inteligencia artificial con apariencia de realidad) se están utilizando cada vez más para crear contenido sexualizado de menores, incluida la "nudificación".

Nuevas pruebas confirman la magnitud de este problema, que no deja de agravarse: en un estudio llevado a cabo por UNICEF, ECPAT e INTERPOL en 11 países, al menos 1.2 millones de niños y niñas revelaron haberse visto afectados en el último año por la manipulación de sus imágenes mediante deepfakes con contenido sexual explícito.

Catherine Russell, directora ejecutiva de UNICEF, lo expresó con claridad: "Debemos ser claros: las imágenes sexualizadas de menores creadas o manipuladas por herramientas de IA constituyen imágenes de abusos sexuales de niños y niñas. Los abusos cometidos mediante deepfake siguen siendo abusos y, aunque las imágenes sean falsas, el daño que causan es absolutamente real".

TikTok bajo presión por deepfakes virales

TikTok no es ajeno a esta problemática. La plataforma ha estado bajo presión constante por la proliferación de deepfakes que violan sus políticas comunitarias. Según reportes de Bloomberg, videos que muestran resurrecciones digitales generadas por IA de personas que murieron en situaciones trágicas se han vuelto virales en la plataforma.

Estos videos son impactantes y van en contra de las políticas de TikTok, que prohíben las representaciones de ciudadanos privados y menores creadas por IA, así como el contenido "espantoso" o "perturbador". Un portavoz de la red social aseguró que la compañía va a continuar realizando actualizaciones en cuanto a sus políticas, así como en sus sistemas de detección.

Pero la realidad es que la moderación de contenido no puede seguir el ritmo de la creación. Algunas publicaciones incluso tienen una etiqueta colocada por el creador que las identifica como IA, lo que le da a TikTok y su equipo de moderación una señal clara de que podría ser un deepfake, pero estos videos aún están disponibles.

El uso de deepfakes en estafas y desinformación

Más allá del abuso de menores, los deepfakes se están convirtiendo en una herramienta preferida del cibercrimen. Según ESET Latinoamérica, se han identificado múltiples casos donde estos engaños causan pérdidas millonarias, confusión mediática o daño reputacional.

Un informe reciente de Media Matters for America expuso una red de cuentas fraudulentas en TikTok que manipulan a los usuarios mediante falsos influencers generados por inteligencia artificial. Las cuentas identificadas siguen un patrón específico: presentan historias personales emotivas para promocionar productos como suplementos o aceites capilares, utilizando deepfakes de supuestos influencers.

Un caso destacado es el de una cuenta eliminada recientemente que alcanzó 245,000 seguidores y 4.1 millones de "me gusta", promoviendo un aceite llamado “batana”, que supuestamente mejora el crecimiento del cabello. Sin embargo, no existe evidencia científica que respalde esa afirmación.

Amenazas a la ciberseguridad en 2026

Fabio Assolini, director del equipo global de investigación y análisis para América Latina de Kaspersky, alertó que los deepfakes son hoy una de las mayores preocupaciones de la industria de la seguridad digital. Estos riesgos no solo afectan a usuarios individuales, sino también a empresas, instituciones públicas y procesos sensibles como elecciones, transacciones financieras y procesos de contratación laboral.

Los ciberdelincuentes ya emplean herramientas capaces de crear audios y videos falsos extremadamente realistas para suplantar identidades y engañar a víctimas con fines financieros. Uno de los escenarios más preocupantes es el uso de deepfakes en procesos de selección laboral remotos.

Este avance también pone en cuestión los sistemas de autenticación biométrica. El reconocimiento facial, ampliamente utilizado en dispositivos móviles y aplicaciones bancarias, podría volverse vulnerable frente a estas tecnologías, obligando a repensar o reforzar los métodos actuales de verificación de identidad.

Cómo protegerse de los deepfakes

Aunque los deepfakes son cada vez más creíbles, existen señales de alerta que pueden ayudar a detectarlos. Siwei Lyu, experto de la Universidad de Buffalo, recomienda fijarse en gestos faciales antinaturales, desincronización entre labios y voz, tono robótico o sin emoción, y detalles fuera de lugar en la imagen o el contexto.

ESET Latinoamérica propone una serie de prácticas para reducir el riesgo: desconfiar de los anuncios llamativos que ofrecen una ganancia demasiado buena para ser verdad, prestar atención a la calidad del video (fallas visuales, mala sincronización o baja resolución), y utilizar un software de seguridad en todos los dispositivos.

Para las empresas, es importante que no se puedan autorizar pagos solamente por una llamada o videollamada. Se puede incluir el uso de palabras clave o códigos internos, como método extra de validación.

Los investigadores predicen que hasta el 90% de los contenidos en línea podrían generarse sintéticamente en 2026. La educación y la formación son cruciales para combatir los deepfakes. A pesar de la considerable cobertura mediática, el público aún no ha tomado plena conciencia de la amenaza. Las empresas y organizaciones deben estar en alerta máxima y establecer planes de respuesta ante posibles ataques.

El lanzamiento de Seedance 2.0 por parte de ByteDance marca un nuevo capítulo en la evolución de la IA generativa. Mientras la tecnología avanza a pasos agigantados, la sociedad enfrenta el desafío de encontrar el balance entre innovación y protección. El tiempo dirá si logramos desarrollar las salvaguardas necesarias antes de que el daño sea irreversible.