Qué hace autónomo a un sistema: más allá del robot

Qué hace autónomo a un sistema: red de cintas con sensores que redirigen paquetes según decisiones internas


Cuando la gente escucha "sistema autónomo" imagina un robot o un coche sin conductor. Pero la autonomía es una propiedad técnica precisa — y la mayoría de los sistemas que se llaman autónomos no lo son en el sentido que el término implica. La distinción no es semántica: define quién responde cuando algo falla.

La diferencia técnica que casi nadie explica

Un sistema automatizado ejecuta instrucciones predefinidas dentro de condiciones conocidas. Si el input está dentro del rango esperado, produce el output correcto. Si el entorno cambia de forma no prevista, el sistema falla, se detiene o produce resultados incorrectos. No toma decisiones — aplica reglas. Una cadena de ensamblaje industrial, un sistema de pagos automáticos, un termostato programado: todos son sistemas automatizados.

Un sistema autónomo es cualitativamente distinto. Según Springer Nature en su análisis publicado en 2025 sobre el EU AI Act, los sistemas autónomos se adaptan dinámicamente y aprenden, evolucionando con sus entornos, mientras que los sistemas automatizados operan dentro de límites fijos predefinidos. La diferencia central es la transferencia de poder de decisión: en la autonomía, la decisión ya no reside en la instrucción programada sino en el sistema mismo.

MDPI publica una definición técnica más específica: la característica más notable de la autonomía es la transferencia del poder de decisión de los nodos críticos del sistema al propio sistema. Dicho de otra forma: un sistema autónomo puede replantear sus objetivos intermedios cuando el entorno cambia, sin que un humano lo instruya para hacerlo.

Los cuatro criterios que definen la autonomía real

Para determinar si un sistema merece el nombre de autónomo, hay cuatro criterios técnicos concretos. El primero es la adaptabilidad ante entornos no previstos en el diseño: el sistema puede operar en condiciones que sus creadores no anticiparon explícitamente. El segundo es la toma de decisiones basada en percepción: el sistema recibe información del entorno en tiempo real y actúa en función de esa información, no solo de instrucciones estáticas.

El tercero es la capacidad de aprendizaje o actualización: el sistema puede mejorar su comportamiento a partir de la experiencia acumulada, sin reprogramación manual para cada escenario nuevo. El cuarto — y el más crítico para efectos de responsabilidad — es la operación sin supervisión humana en el bucle de decisión: un humano puede haber diseñado el sistema y puede monitorearlo, pero no está presente en cada decisión individual que el sistema toma.

La autonomía no es una propiedad binaria — es un espectro. El punto en que un sistema cruza de "automatizado" a "autónomo" es exactamente el punto donde la responsabilidad humana se vuelve más difícil de asignar.
Qué hace autónomo a un sistema: mecanismo de desvío automático separando contenedores en rutas independientes

El espectro de autonomía: de 0 a 5

La forma más estandarizada de medir la autonomía en un dominio específico es la escala SAE, desarrollada originalmente para vehículos pero aplicable a cualquier sistema. En el nivel 0, el humano controla todo. En el nivel 1 y 2, el sistema asiste al humano pero el humano mantiene la supervisión y el control. En el nivel 3, el sistema puede operar de forma autónoma en condiciones definidas pero el humano debe estar disponible para retomar el control. En los niveles 4 y 5, el sistema opera de forma completamente autónoma — en condiciones específicas o en cualquier condición — sin requerir intervención humana.

Esta escala es útil porque hace visible algo que el lenguaje cotidiano oscurece: la mayoría de los sistemas que operan en el mundo real hoy están en los niveles 2 y 3, no en el 4 o 5. Son sistemas asistidos, no autónomos en el sentido pleno. Llamarlos "autónomos" en comunicaciones comerciales o regulatorias genera expectativas que el sistema no puede cumplir — con consecuencias documentadas.

Por qué la definición importa más allá de la técnica

La razón por la que esta distinción importa no es académica. En sistemas de salud, un algoritmo que clasifica casos y sugiere tratamientos es, técnicamente, automatización avanzada — sigue reglas estadísticas aplicadas a datos. Pero si ese sistema opera sin revisión humana en cada decisión, se comporta como autónomo en términos prácticos. ProPublica documentó en 2023 el sistema PxDx de Cigna, donde las revisiones de médicos promediaban 1.2 segundos por caso — lo que significaba, en los hechos, que el sistema tomaba la decisión de negar cobertura de forma autónoma aunque un humano nominalmente estuviera en el proceso.

En transporte, la NHTSA reportó 5,202 incidentes con vehículos autónomos o semiautónomos hasta noviembre de 2025 en Estados Unidos, según datos de Craft Law Firm actualizados en enero de 2026. De esos, 65 resultaron en fatalidades. El sistema legal no tiene un marco claro para asignar responsabilidad cuando el nivel de autonomía del sistema es ambiguo o disputado por el fabricante. Esa ambigüedad no es accidental: es una consecuencia directa de no tener definiciones técnicas precisas y vinculantes sobre qué constituye autonomía real.

Lo que nadie te cuenta sobre la IA. Sin ads, sin spam. Cancela cuando quieras, sin drama.
Suscríbete
Compartir