La inteligencia artificial (IA) ha irrumpido con fuerza en los procesos de gestión del talento. Desde la selección de personal hasta la evaluación del desempeño, los algoritmos prometen decisiones más rápidas, objetivas y eficientes. Sin embargo, su creciente protagonismo en la toma de decisiones laborales, especialmente en los despidos automatizados o “algorítmicamente justificados”, plantea un serio debate ético y legal en el ámbito de los recursos humanos y la consultoría tecnológica.
La automatización que decide el futuro laboral
Cada vez más empresas incorporan sistemas basados en IA para evaluar la productividad, el rendimiento o la adecuación de los empleados. Estos modelos, alimentados por datos internos —como el número de correos enviados, la participación en reuniones o el cumplimiento de objetivos—, son capaces de generar informes que influyen directamente en las decisiones sobre promociones, reestructuraciones e incluso despidos.
Según un reportaje publicado por Cinco Días (El País) en octubre de 2025, algunas compañías han comenzado a justificar ceses de personal amparándose en informes automatizados que asocian rendimiento bajo o falta de adaptación a la cultura corporativa. En muchos casos, estos sistemas operan sin una revisión humana previa, lo que pone en cuestión la transparencia y la trazabilidad de las decisiones.
Riesgos legales y éticos
El uso de la IA en procesos de despido entra en conflicto con el Reglamento de Inteligencia Artificial de la Unión Europea (AI Act), aprobado en 2025, que prohíbe las decisiones automatizadas que afecten a derechos fundamentales sin supervisión humana efectiva. Además, el Estatuto de los Trabajadores español exige una causa justificada y comprobable para la rescisión de un contrato laboral, algo difícil de demostrar si la decisión parte de un algoritmo opaco.
Expertos en derecho laboral advierten que estos sistemas pueden reproducir sesgos preexistentes, amplificando desigualdades por género, edad o nacionalidad. También señalan un problema de gobernanza: muchas empresas no pueden explicar por qué la IA ha tomado una decisión concreta, lo que podría considerarse una vulneración del derecho a la información del trabajador.
El papel de las consultoras y los RR. HH.
Las consultoras tecnológicas y de recursos humanos se enfrentan al reto de implantar sistemas de IA responsables y auditables. Algunas ya están desarrollando protocolos de “gobernanza algorítmica” que garantizan la trazabilidad de los datos y la intervención humana en los procesos críticos. Este enfoque busca equilibrar la eficiencia operativa con la ética empresarial, reforzando la confianza en la tecnología.
Además, comienza a tomar fuerza una nueva especialidad: la auditoría de algoritmos. Su objetivo es verificar que las herramientas de IA utilizadas por las empresas cumplen con los principios de transparencia, equidad y explicabilidad. Esta práctica, aún incipiente, será clave para evitar litigios y preservar la reputación corporativa.
Un futuro que exige equilibrio
La automatización puede mejorar la gestión del talento, pero delegar decisiones tan delicadas como un despido en un algoritmo es un riesgo que las organizaciones no deberían asumir sin control. La IA debe ser una herramienta de apoyo, no un sustituto del juicio humano.
Solo un enfoque ético, transparente y regulado permitirá que esta tecnología se convierta en aliada —y no en amenaza— del futuro laboral.