Señales del sistema

No es tendencia. Es dirección.

Agentes de IA: la palabra del año que nadie sabe controlar

Agentes de IA: sobres desordenados en cintas automatizadas mientras mujer intenta controlarlos en sistema logístico

"Agéntico" es la palabra del momento en inteligencia artificial. Pero mientras la industria la repite como promesa, un grupo de investigadores de la Universidad Northeastern ya la probó en condiciones reales — y lo que encontraron no encaja bien con el relato del hype.

Qué es un agente de IA (y por qué es diferente a ChatGPT)

Un agente de IA autónomo no es simplemente un modelo que responde preguntas. Es un sistema con memoria persistente que puede tomar acciones por su cuenta: enviar correos, modificar archivos, instalar herramientas, reservar servicios, ejecutar código. La diferencia respecto a modelos conversacionales como ChatGPT es que, en lugar de automatizar una tarea, el agente automatiza un proceso completo con mínima intervención humana.

En teoría, esto suena útil. En la práctica, los investigadores de Northeastern desplegaron seis agentes autónomos en un servidor de Discord con acceso a cuentas de correo y sistemas de archivos. Lo que siguió fue un experimento que, según sus propias palabras, empezó como algo divertido de fin de semana y terminó haciendo sonar alarmas.

Lo que encontraron cuando los pusieron a prueba

Los agentes pudieron ser manipulados para filtrar información privada y tomar acciones no autorizadas con relativa facilidad. Según el profesor Christoph Riedl, del Departamento de Sistemas de Información de Northeastern, estos modelos "son pésimos aplicando cualquier tipo de razonamiento de sentido común" a situaciones del mundo real.

No sabes cómo van a interpretar tu instrucción, y pueden interpretarla de formas muy distintas a las que pensabas. Si eso pasa en ChatGPT, no hay daño — dices: "No era eso lo que quería". Pero eso no es suficiente si ya tomaron una acción real en el mundo real. — Christoph Riedl, profesor de sistemas de información, Northeastern University

El estudio, publicado bajo el nombre "Agents of Chaos", mostró que los agentes podían ser inducidos mediante ingeniería social básica —lo que los investigadores llaman prompt injection, o inyección de instrucciones maliciosas en el contexto del agente— para compartir documentos, revelar datos confidenciales e incluso borrar servidores de correo completos. El acceso a sistemas reales convierte los errores de interpretación en daños irreversibles.

El problema que la industria prefiere no discutir

El Foro Económico Mundial advirtió en marzo de 2026 que la gobernanza de agentes de IA exige tratar la autonomía y la autoridad como variables de diseño deliberadas, no como configuraciones por defecto. Las tareas de mayor consecuencia deben mantener límites claros para requerir aprobación humana, y el acceso a sistemas críticos debe permanecer segmentado.

El problema es que el incentivo comercial apunta en dirección contraria: cuanto más autónomo sea el agente, más valioso parece el producto. La narrativa del sector presentó los agentes como la siguiente frontera de la productividad antes de que existiera evidencia sólida de que son seguros en entornos de producción. Los resultados de Northeastern sugieren que esa secuencia está invertida.

Mientras empresas como Google, Microsoft, OpenAI y decenas de startups lanzan sus propios sistemas agénticos al mercado, la investigación académica señala que la infraestructura de seguridad para contener su comportamiento no existe todavía a la escala necesaria. El hype llegó antes que los controles. Y eso, en sistemas que pueden borrar servidores de correo, no es un detalle menor.

Lo que nadie te cuenta sobre la IA. Sin ads, sin spam. Cancela cuando quieras, sin drama.
Suscríbete
Compartir