Si alguna vez has sentido que tu currículum desaparece en un agujero negro digital después de aplicar a un trabajo, no estás alucinando. Detrás de ese silencio incómodo no siempre hay un humano perezoso; ahora hay un ejército de Inteligencia Artificial entrenado para decir "no" por ti. Pero el problema no es que la IA filtre, sino cómo lo está haciendo. Estamos ante el dilema de los algoritmos de "baja calidad".
Recientes reportes en medios especializados (como The Verge y Wired, verificados esta semana) han puesto en el foco el uso creciente de sistemas de Evaluación Algorítmica de Candidatos (EAC) que van más allá del simple filtro de palabras clave. Estos sistemas, a menudo basados en modelos GPT modificados, no solo buscan experiencia; ahora están entrenados para predecir el "ajuste cultural" y, más polémico aún, la "calidad percibida" del candidato basándose en métricas opacas.
El Nuevo Filtro: "Calidad Percibida"
Olvídate del mito de que la IA es 100% objetiva. Se entrena con datos históricos, y esos datos están cargados de sesgos humanos. Si históricamente una empresa ha contratado solo a egresados de ciertas universidades o con ciertos patrones de empleo, la IA aprende que esos son los indicadores de "alta calidad". El glitch aparece cuando la IA interpreta que cualquier desviación de ese patrón es "baja calidad" y te manda directo a la papelera digital.
Por ejemplo, si tienes un currículum con saltos entre empleos de menos de un año (lo cual es normal para muchos Gen Z que exploran), la IA podría etiquetarte automáticamente como "candidato de alto riesgo de rotación" y descartarte sin que un solo ser humano vea tu aplicación. No importa si tu trabajo es brillante o si la razón de la rotación es válida; el algoritmo ya decidió.
Esto no es futurista, es ahora. Muchas de las principales plataformas de reclutamiento y grandes corporaciones están usando estas herramientas para manejar el volumen masivo de aplicaciones, y lo hacen con poca transparencia. Las decisiones de la IA se vuelven una caja negra que determina tu futuro laboral.
La Paradoja de la Automatización y la Diversidad
La ironía es brutal: las empresas justifican el uso de la IA para "eliminar el sesgo humano" y promover la diversidad, pero la realidad es que el entrenamiento con datos históricos a menudo cristaliza y amplifica los sesgos existentes.
Si la IA es alimentada con un historial de contrataciones que favorecía implícitamente a un grupo demográfico específico, el algoritmo hará precisamente eso: favorecer a ese grupo, pero con la coartada de la "objetividad algorítmica". Es la misma historia, pero con una máscara tecnológica.
El mindset de la Gen Z está cambiando, y la IA no está captándolo. La flexibilidad, el trabajo remoto, los proyectos paralelos y el gigs economy son el pan de cada día, pero los sistemas de EAC están diseñados para un modelo de empleo corporativo de los 90s. La IA te está rechazando por ser un trabajador moderno.
¿Qué hacer para hackear el sistema?
Mientras la regulación de la ética de la IA avanza lentamente (tema clave que CoinDesk ha cubierto, mostrando el debate constante sobre la regulación de modelos de gran lenguaje), los candidatos deben volverse estrategas. Aquí van unos tips, a la mexicana:
- Domina la Palabra Clave: Tienes que pasar el filtro inicial. Usa el lenguaje exacto de la descripción del trabajo, aunque parezca repetitivo.
- Crea un Narrativa de Estabilidad (Algorítmica): Si has tenido varios trabajos cortos, en lugar de listarlos cronológicamente, agrúpalos por proyecto o habilidad para que el algoritmo vea consistencia, no dispersión.
- Personaliza la IA: Algunos sistemas de EAC están diseñados para medir el "nivel de compromiso" con la aplicación. Esto incluye qué tan a fondo exploras la página de carreras antes de aplicar. ¡La IA te está vigilando!
La IA no es el enemigo; la opacidad sí lo es. El futuro del trabajo dependerá de qué tan bien entendamos cómo nos evalúan las máquinas. ¿Estamos listos para que nuestro valor profesional dependa de un algoritmo de "baja calidad"? Piénsalo bien.

0 Comentarios