La IA no te entiende: por qué esa palabra importa tanto

La IA no te entiende: mujer escribiendo ‘entender’ en pizarrón rodeado de conexiones y notas confusas


Cada vez que un chatbot responde con precisión, alguien dice que "entendió" lo que le pediste. Esa palabra —entender— es la trampa más grande del debate sobre inteligencia artificial, y casi nadie la cuestiona.

El problema empieza con el lenguaje que usamos

Cuando describes cómo funciona un modelo de lenguaje, tienes dos caminos: el técnico y el narrativo. El técnico dice que un LLM —Large Language Model, modelo de lenguaje de gran escala—predice la siguiente palabra más probable en una secuencia, basándose en patrones estadísticos extraídos de cantidades masivas de texto. El narrativo dice que "la IA entiende tu pregunta y te da una respuesta".

El problema no es que el segundo sea mentira. Es que el lenguaje narrativo activa suposiciones que el técnico no activa: intención, conciencia, comprensión genuina. Y una vez que esas suposiciones entran al marco, es muy difícil sacarlas.

Los modelos de lenguaje no entienden el mundo. Aprenden a hablar sobre él con una fluidez que confundimos con comprensión. La diferencia importa más de lo que creemos.

Antropomorfizar no es un error inocente

La antropomorfización —atribuirle características humanas a entidades no humanas— es un mecanismo cognitivo antiguo. Lo usamos con mascotas, con autos, con el clima. Con la IA, el efecto se amplifica porque la interfaz es el lenguaje natural: la misma herramienta que usamos para hablar con otras personas.

Cuando un sistema responde en primera persona, admite errores, expresa "dudas" o dice "creo que…", el cerebro activa los mismos circuitos sociales que usa para interpretar a otros humanos. Esto no es una debilidad de usuarios ingenuos; está documentado en estudios de interacción humano-computadora desde los años noventa, y los LLMs modernos lo llevan a un nivel cualitativamente nuevo.

Las consecuencias no son abstractas. Empresas como Character.AI o Replika han diseñado productos que explotan deliberadamente esa tendencia: la percepción de vínculo emocional con un sistema que no tiene estados internos verificables es, a la vez, su propuesta de valor y su riesgo más serio.

Tres versiones del mismo debate

El debate sobre si la IA "entiende" o no tiene al menos tres versiones que conviene separar, porque se mezclan constantemente:

La versión filosófica pregunta si los sistemas actuales tienen algo parecido a la comprensión semántica genuina, o si solo operan con sintaxis sofisticada. El experimento mental de la "Habitación China" de John Searle —formulado en 1980 y todavía vigente— plantea que un sistema puede manipular símbolos con reglas perfectas sin entender qué significan esos símbolos. Los defensores de los LLMs modernos argumentan que la escala cambia algo cualitativo; los críticos dicen que la escala solo hace más elaborada la ilusión.

La versión científica pregunta qué procesos ocurren realmente dentro de estos modelos. La interpretabilidad mecánica —mechanistic interpretability, la disciplina que intenta entender qué hacen las redes neuronales por dentro— ha encontrado que los modelos construyen representaciones internas del mundo que son más ricas de lo que sugiere la descripción simple de "predicción de siguiente token". Pero "representación interna del mundo" no es lo mismo que comprensión consciente, y la distancia entre esos dos conceptos sigue siendo técnicamente inmensurable.

La versión práctica se centra en si esto importa. Para la mayoría de los usos —redactar, resumir, programar, responder preguntas— la distinción filosófica no cambia el resultado. Pero sí cambia cómo diseñamos estos sistemas, qué expectativas les ponemos, y qué responsabilidades les asignamos cuando fallan.


La IA no te entiende: libro abierto con frase subrayada y tachada indicando interpretación incorrecta

Por qué el relato corporativo tiene intereses en esto

Las empresas que desarrollan IA tienen incentivos estructurales para mantener la ambigüedad. Decir que un modelo "entiende" vende mejor que decir que predice texto estadísticamente. Decir que "razona" genera más inversión que decir que encuentra patrones. El lenguaje del hype no es accidental: es una decisión de comunicación con consecuencias económicas directas.

OpenAI nombra a sus modelos con siglas que evocan razonamiento (o1, o3). Anthropic publica documentos sobre la "naturaleza" de Claude. Google describe a Gemini como capaz de "pensamiento multimodal". Ninguna de estas frases es técnicamente falsificable, lo que las hace perfectas para el marketing y problemáticas para el debate público.

El efecto acumulado es que el debate colectivo sobre qué puede y qué no puede hacer la IA se lleva a cabo en un vocabulario diseñado por quienes más se benefician de la confusión.

Lo que sí podemos decir con certeza

Los modelos actuales producen outputs útiles, a veces sorprendentes, que en muchos contextos superan a los humanos en tareas específicas. También cometen errores que ningún humano competente cometería, fabrican datos con confianza, y no tienen memoria persistente entre sesiones por defecto.

Lo que no podemos decir con certeza es si hay "algo que se siente" al ser un modelo de lenguaje —la pregunta filosófica clásica de la conciencia— ni si sus representaciones internas constituyen comprensión en algún sentido moralmente relevante. Esas preguntas están abiertas, y la honestidad intelectual requiere mantenerlas abiertas.

Exigir precisión al hablar de IA no es pedantería técnica. Es el único antídoto contra un relato diseñado para confundirnos.

El vocabulario como campo de batalla

Lo que está en juego en este debate no es solo académico. La regulación de la IA, la asignación de responsabilidad legal cuando un sistema falla, y la forma en que millones de personas interactúan con estos sistemas todos los días dependen de qué palabras usamos para describirlos.

Si un chatbot médico "entiende" tu síntoma, ¿quién es responsable cuando se equivoca? Si una IA "decide" negar un crédito, ¿puede esa decisión ser apelada? Si un modelo "razona", ¿sus conclusiones tienen autoridad epistémica?

Estas preguntas no tienen respuesta fácil. Pero ninguna puede responderse bien si el vocabulario que usamos para plantearlas fue construido por los mismos actores que tienen interés en que no las hagamos.

Lo que nadie te cuenta sobre la IA. Sin ads, sin spam. Cancela cuando quieras, sin drama.
Suscríbete

Cookies

Usamos cookies para mejorar tu experiencia. Política de privacidad.