Esta mañana intenté programar un post en X. El contenido: un enlace a un artículo sobre inteligencia artificial física y cómo los objetos inteligentes están cambiando la forma en que vivimos. Nada polémico. Nada sensible. Tecnología editorial.
X lo rechazó por "violar las reglas de la plataforma".
No hay error técnico que explique eso. Hay un patrón que lo explica perfectamente.
La penalización que nadie anuncia oficialmente
Desde que Elon Musk adquirió Twitter en 2022 y lo rebautizó como X, los posts con enlaces externos comenzaron a recibir una penalización de entre 30% y 50% de alcance para cualquier post que incluya un link que saque al usuario de la plataforma. El algoritmo, cuyo código fue publicado de forma abierta en GitHub, lo confirma.
Un análisis de Buffer sobre 18.8 millones de posts de 71,000 cuentas publicado en 2025 lo verificó con datos: los posts con enlaces tienen un rendimiento significativamente inferior. Desde marzo de 2025, las cuentas sin suscripción Premium registran una tasa de interacción promedio de cero en posts con links. Cero.
La lógica detrás de esto no es un misterio. X quiere retener usuarios dentro de la plataforma para maximizar el tiempo de exposición publicitaria. Un creador que comparte su blog está, técnicamente, compitiendo con X por la atención de su propia audiencia.
Eso no es moderación de contenido. Es protección del modelo de negocio disfrazada de política editorial.
Lo que sí circula sin problema
Mientras el algoritmo penaliza silenciosamente los enlaces editoriales, la evidencia sobre lo que permanece activo en la plataforma es documentada y pública.
El Centro para Contrarrestar el Odio Digital (CCDH) reportó que, una semana después de notificar a X sobre 300 posts con discurso de odio extremo, el 86% seguía activo. Posts que glorificaban el nazismo, negaban el Holocausto, deshumanizaban a personas por su origen étnico. Todos en clara violación de las propias reglas de X.
Un estudio de la Universidad del Sur de California publicado en 2024 encontró que el discurso de odio en X aumentó 50% en el período analizado. Los epítetos transfóbicos subieron 260%. El contenido racista, 42%. El engagement de esos posts creció 70% diario, frente a un 22% para tweets aleatorios en inglés.
El propio reporte de transparencia de X del primer semestre de 2024 admitió que solo el 0.0123% de los posts fue identificado como violatorio. Una de cada 10,000 publicaciones. En una plataforma con cientos de millones de posts diarios, ese número no refleja un entorno ordenado: refleja una detección insuficiente.
La filosofía detrás del sesgo
El contenido tóxico que genera alto engagement tiene incentivos algorítmicos para permanecer visible. El contenido editorial que lleva al usuario fuera de la plataforma tiene incentivos para desaparecer.
X no modera contenido. Modera la competencia.
En diciembre de 2025, la Unión Europea multó a X con 120 millones de euros bajo la Ley de Servicios Digitales por insuficiente transparencia algorítmica. Brasil bloqueó la plataforma por negarse a cumplir órdenes judiciales relacionadas con la moderación de contenido. La presión regulatoria existe. Los cambios estructurales, no.
Por qué esto no es un accidente técnico
La moderación automatizada de X utiliza modelos de machine learning entrenados para detectar patrones. Esos patrones incluyen señales como la probabilidad de que un post lleve a reportes o bloqueos, el destino de los enlaces externos y el historial de engagement de la cuenta.
Un artículo de tecnología con enlace a un blog independiente activa múltiples señales negativas en ese sistema: link externo, cuenta sin Premium, bajo historial de interacciones inmediatas. El sistema no lee el contenido. Evalúa el riesgo de pérdida de atención y actúa en consecuencia.
Lo irónico es que el mismo sistema que bloquea ese post editorial es incapaz de detectar con consistencia contenido que viola sus propias políticas. No porque la tecnología no exista, sino porque el costo de moderar contenido viral es mayor que el costo de ignorarlo.
Qué puede hacer el usuario
Entender el mecanismo es el primer paso. La segunda es actuar desde esa comprensión, no desde la indignación.
- Documentar y reportar sistemáticamente. X tiene herramientas de reporte oficiales. Usarlas de forma consistente y en grupo aumenta la presión sobre el sistema. El CCDH demostró que la documentación pública tiene impacto aunque la respuesta interna sea lenta.
- Usar las herramientas de apelación. X permite apelar decisiones de moderación. Si un post legítimo fue bloqueado, la apelación no siempre funciona, pero genera un registro que puede ser útil en contextos regulatorios.
- Diversificar canales de distribución. Depender de X como canal principal de tráfico es aceptar sus reglas de distribución como propias. Mastodon, Bluesky, newsletters y SEO orgánico no tienen los mismos incentivos para suprimir contenido editorial.
- Nombrar el problema públicamente. La presión regulatoria en Europa existe en parte porque organizaciones y creadores documentaron los problemas de forma sostenida. X no cambia por buena voluntad. Cambia cuando el costo de no hacerlo supera al costo de hacerlo.
X no es un error. Es un diseño.
Y entender eso cambia la pregunta: no es "¿por qué me bloquearon este post?" sino "¿a quién le conviene que este contenido no se vea?"
La respuesta, casi siempre, apunta a la misma dirección.

