Las palabras que construyen el miedo (y la fe) en la IA

Las palabras que construyen el miedo: persona manipula maniquíes en líneas separadas por luz roja y azul


"Superinteligencia." "Riesgo existencial." "Revolución industrial." "Colaborador digital." Las palabras que rodean a la inteligencia artificial no describen una realidad objetiva — la construyen. El lenguaje sobre IA es uno de los campos de batalla más activos de la percepción pública contemporánea, y los actores que lo controlan tienen intereses muy concretos en el resultado.

El vocabulario del miedo y quién lo usa

Términos como "superinteligencia", "riesgo existencial" y "fin de la humanidad" provienen principalmente de dos fuentes: investigadores de seguridad en IA que tienen preocupaciones técnicas legítimas, y ejecutivos de empresas de IA que descubrieron que ese lenguaje es extraordinariamente efectivo para atraer atención, regulación favorable y financiamiento.

MIT Technology Review señaló en diciembre de 2025 que "superinteligencia" es, como "AGI", un término igual de vagamente definido pero capaz de movilizar recursos extraordinarios. Meta anunció en julio de 2025 la formación de un equipo para perseguir la superinteligencia. Microsoft anunció meses después inversiones de cientos de miles de millones con ese mismo objetivo declarado. El término no necesita una definición técnica precisa para funcionar — necesita resonancia emocional, y la tiene.

El vocabulario del miedo tiene un efecto secundario documentable: desplaza la conversación hacia horizontes lejanos e hipotéticos, y la aleja de los problemas de la IA que ya existen hoy. Los sesgos algorítmicos en sistemas de contratación, vivienda y justicia. El costo ambiental de los centros de datos. La concentración de poder en un puñado de empresas. Estas son consecuencias presentes y verificables — pero generan menos atención mediática que la pregunta de si una IA podría decidir exterminar a la humanidad en 2035.

El vocabulario de la fe y quién lo usa

En el extremo opuesto están los términos que construyen expectativa positiva: "revolución", "transformación", "democratización", "empoderamiento". Este vocabulario también tiene un origen identificable: departamentos de marketing, presentaciones a inversores y comunicados de prensa de empresas que venden productos de IA.

La Electronic Frontier Foundation documentó en febrero de 2026 que estamos "inundados de anuncios y exhortaciones a usar las últimas apps de IA, con promesas de que la IA puede resolver cualquier problema". El mecanismo funciona porque el vocabulario de la fe activa aspiraciones reales — productividad, creatividad, acceso a herramientas antes reservadas a quienes tenían más recursos. El problema no es que esas aspiraciones sean falsas: es que el lenguaje de la fe raramente viene con condiciones, límites ni contexto sobre cuándo aplica y cuándo no.

El lenguaje del miedo vende seguridad y regulación. El lenguaje de la fe vende productos y optimismo. Ambos son instrumentos de posicionamiento antes de ser instrumentos de información.
Las palabras que construyen el miedo: contenedores reciben partículas rojas y azules desde un mismo sistema

Cómo el lenguaje moldea política y regulación

El vocabulario dominante sobre IA en un momento dado tiene consecuencias regulatorias directas. Cuando el lenguaje del miedo domina — como ocurrió en Europa durante el proceso de desarrollo de la Ley de IA — las regulaciones tienden a ser más restrictivas, más orientadas a la precaución, más enfocadas en riesgos futuros. Cuando el vocabulario de la oportunidad domina — como ha ocurrido históricamente en la comunicación oficial de Estados Unidos sobre tecnología — las regulaciones tienden a ser más permisivas, más orientadas al mercado.

Ninguna posición es automáticamente correcta. Lo problemático es que el vocabulario que domina el debate público no lo determinan los científicos con más evidencia ni los ciudadanos con más exposición al impacto de la tecnología — lo determinan principalmente quienes tienen más recursos para producir y amplificar ese vocabulario. En 2025 y 2026, eso significa un puñado de empresas tecnológicas y un ecosistema de medios que depende de su publicidad y acceso.

Leer el lenguaje de la IA con criterio propio

Tres señales de alerta para identificar cuándo el lenguaje sobre IA es más posicionamiento que información. Primera: cuando los horizontes temporales son vagos ("en los próximos años", "eventualmente", "pronto"), el vocabulario está diseñado para generar emoción sin comprometer verificación. Segunda: cuando las afirmaciones de capacidad no vienen acompañadas de benchmarks específicos, condiciones de aplicación y limitaciones conocidas, el lenguaje está orientado a impresionar, no a informar. Tercera: cuando el vocabulario emocional — ya sea de amenaza o de promesa — domina sobre el vocabulario técnico en una comunicación oficial de una empresa, eso es una señal de que la comunicación tiene un objetivo de relaciones públicas, no de transparencia.

Esto no implica desconfiar de todo lo que se dice sobre IA — implica distinguir entre el debate técnico genuino, que existe y es importante, y la producción de narrativa comercial, que también existe y tiene objetivos distintos. Las dos cosas conviven en el mismo espacio público, a menudo con el mismo tono de certeza.

Lo que nadie te cuenta sobre la IA. Sin ads, sin spam. Cancela cuando quieras, sin drama.
Suscríbete
Compartir