Ir al contenido
_
_
_
_
En colaboración conLa Ley
Inteligencia artificial
Tribuna

IA en recursos humanos: eficiencia sí, pero no a costa de derechos fundamentales

En juego están principios como la igualdad, la no discriminación y la dignidad de la persona trabajadora, así como el derecho a no ser objeto de decisiones exclusivamente automatizadas

Imagen de un ojo humano con las letras "AI" (Inteligencia Artificial) y lenguaje de programación reflejado en su superficie.Jacques Julien (Getty)

La inteligencia artificial se ha integrado en los departamentos de recursos humanos, pero la eficiencia no puede justificar vulneraciones de derechos fundamentales. Las empresas españolas que delegan decisiones laborales en algoritmos asumen riesgos legales que no siempre evalúan con la profundidad necesaria.

La automatización ya no es futurista: filtrar currículums, evaluar desempeño, predecir rotación, medir productividad o clasificar candidatos es una práctica habitual en muchas organizaciones. La inteligencia artificial promete rapidez, ahorro y objetividad en procesos tradicionalmente complejos. Sin embargo, junto a esas ventajas introduce un riesgo jurídico creciente.

Cuando la IA adopta decisiones que afectan al acceso al empleo, a la promoción profesional o incluso a la continuidad de su contrato, ya no hablamos solo de tecnología: hablamos de derechos fundamentales y de responsabilidad empresarial.

Existe una idea, errónea, de que la tecnología es objetiva por definición. La realidad es otra: los sistemas de IA aprenden de datos históricos y replican los sesgos que contienen. Si un algoritmo descarta determinados perfiles, prioriza variables indirectamente discriminatorias o penaliza trayectorias profesionales no lineales, el problema no es técnico: es jurídico.

En juego están principios como la igualdad, la no discriminación y la dignidad de la persona trabajadora, así como el derecho a no ser objeto de decisiones exclusivamente automatizadas, reconocido en el artículo 22 del Reglamento General de Protección de Datos (RGPD). Además, el ordenamiento laboral español exige transparencia cuando los algoritmos inciden en condiciones de trabajo, reforzando la obligación empresarial de explicar cómo se adoptan estas decisiones.

El Reglamento Europeo de Inteligencia Artificial (AI Act) eleva el listón. Clasifica como alto riesgo los sistemas utilizados para selección de personal, evaluación del desempeño, promoción interna o despidos. Esta calificación implica obligaciones concretas: evaluación previa de riesgos, documentación técnica, trazabilidad de decisiones y supervisión humana efectiva.

No basta con que una persona valide formalmente el resultado del algoritmo; debe existir una capacidad real de intervención y corrección. Sin embargo, muchas pymes desconocen que las herramientas que utilizan pueden entrar en esta categoría. Y desconocerlo no elimina la responsabilidad. La adopción acelerada de soluciones tecnológicas, impulsada por la presión competitiva y la promesa de eficiencia, está generando un escenario en el que la innovación avanza más rápido que la reflexión jurídica.

Un error frecuente es pensar que el proveedor tecnológico asume la responsabilidad. No es así. El marco normativo europeo distribuye obligaciones entre desarrolladores y usuarios, y las empresas que implementan sistemas de IA deben poder demostrar que han actuado con diligencia.

Si un candidato impugna un proceso de selección por discriminatorio, si un trabajador cuestiona una evaluación automatizada o si la Inspección de Trabajo exige explicaciones sobre los criterios utilizados por el algoritmo, la empresa no podrá limitarse a señalar al proveedor. Deberá acreditar que evaluó los riesgos, estableció mecanismos de supervisión adecuados y adoptó medidas para proteger los derechos afectados. El software no responde ante tribunales ni comparece ante una inspección. La responsabilidad sigue siendo humana y empresarial.

Ante este escenario, resulta imprescindible incorporar la inteligencia artificial al sistema de compliance. No se trata de añadir burocracia, sino de introducir garantías: auditorías jurídicas previas a la implantación de sistemas en recursos humanos, evaluaciones de impacto en protección de datos y derechos fundamentales, protocolos internos claros, supervisión humana efectiva y formación específica para directivos y responsables de recursos humanos.

Cuando un algoritmo decide quién accede a una entrevista, quién promociona o quién queda fuera de un proceso interno, está influyendo directamente en la trayectoria profesional de las personas. La empresa debe poder explicar qué variables utiliza el sistema, cómo se entrenó, qué controles existen para detectar sesgos y qué margen de intervención humana está previsto. La opacidad ya no compatible con un entorno regulatorio que exige transparencia y rendición de cuentas.

La inteligencia artificial puede y debe ser un aliado estratégico para mejorar la competitividad empresarial. Pero solo si se integra dentro de un marco de gobernanza responsable y cumplimiento normativo. Delegar en algoritmos no libera de responsabilidad; al contrario, la intensifica.

La supervisión humana, la auditoría legal y la gestión de riesgos algorítmicos no son obstáculos a la innovación: son condiciones para proteger derechos, evitar sanciones y preservar la reputación corporativa en un entorno cada vez más exigente. En un mercado donde la marca empleadora y la confianza interna son activos estratégicos, la percepción de decisiones automatizadas opacas o injustas pueden convertirse en una desventaja competitiva real.

La eficiencia no puede costar la dignidad de las personas. En la era de la IA, cumplir no es solo utilizar tecnología avanzada, sino hacerlo con criterio, transparencia y responsabilidad. Porque cuando el algoritmo decide, la empresa sigue siendo quien responde.

Rellena tu nombre y apellido para comentarcompletar datos

Archivado En

_

Últimas noticias

Buscar bolsas y mercados

_
_