Editor en La Ecuación Digital. Analista y divulgador tecnológico con…
La entrada en vigor del Reglamento Europeo de Inteligencia Artificial, conocido como EU AI Act, ha dejado de ser una previsión regulatoria para convertirse en un factor crítico de solvencia operativa en las empresas españolas. En el departamento de Recursos Humanos, esta normativa no solo introduce límites técnicos, sino que altera la jerarquía de toma de decisiones.
El texto legal es taxativo al clasificar los sistemas de IA destinados a la selección, promoción y evaluación de trabajadores como de alto riesgo. Esta etiqueta no es meramente descriptiva; acarrea una responsabilidad jurídica que, en caso de negligencia, puede derivar en multas de hasta 35 millones de euros o un 7% de la facturación global anual para las infracciones más graves.
En las mesas de dirección, el debate ha dejado de pivotar sobre la capacidad de la IA para cribar currículos o tasar el potencial de un directivo. El foco analítico se desplaza ahora hacia un terreno puramente de riesgo: la posibilidad de que esa eficiencia técnica sea auditable y mantenga su validez ante una inspección legal.
El mercado se encuentra en un momento de fricción donde la velocidad de adopción tecnológica ha superado la capacidad de supervisión de muchas organizaciones. Según analiza Jordi Bastús, Senior Director en la consultora BTS, gran parte del tejido empresarial está operando bajo sistemas que priorizan la automatización sobre la supervisión humana, a menudo sin una trazabilidad clara de cómo se llega a un resultado concreto.
El fin de la inferencia emocional y la vigilancia biométrica
Uno de los puntos de mayor tensión regulatoria se encuentra en la capacidad de las máquinas para interpretar lo que el lenguaje humano no dice de forma explícita. El EU AI Act prohíbe el uso de técnicas que pretendan inferir estados de ánimo, niveles de estrés o la supuesta honestidad de un candidato a través del análisis de vídeo, voz o rasgos biométricos. Esta medida ataca directamente a una generación de herramientas de videollamada inteligente que prometían descifrar la estabilidad emocional mediante microexpresiones faciales o modulaciones sonoras.
La comunidad científica y los legisladores europeos han coincidido en la falta de precisión de estas inferencias, que a menudo se basan en modelos pseudocientíficos. Para una empresa en España, mantener estas prácticas supone una exposición directa a sanciones económicas y un conflicto reputacional inmediato. Bastús advierte que estas técnicas, además de los riesgos legales por discriminación, fracturan la confianza del empleado. La marca empleadora se resiente cuando el proceso de selección se percibe como una caja negra capaz de juzgar la personalidad basándose en parámetros biométricos sin una correlación probada con el desempeño real en el puesto.
La falacia de la automatización total
El reglamento introduce un concepto fundamental: la supervisión humana efectiva. No basta con que un profesional de RRHH valide el listado final generado por un algoritmo; la norma exige que el humano tenga la autoridad y la formación necesarias para cuestionar, ignorar o anular el resultado del sistema. Los procesos que filtran candidatos o asignan puntuaciones de desempeño de manera totalmente autónoma entran en una zona de alta peligrosidad regulatoria.
Esta exigencia de supervisión activa responde a la necesidad de evitar el sesgo de automatización, esa tendencia humana a confiar ciegamente en los resultados de una máquina. Cuando la IA decide quién merece un ascenso o quién debe ser incluido en un plan de reestructuración sin una revisión crítica, la empresa pierde el control sobre la equidad de su propia estructura. Desde la perspectiva de BTS, la tecnología debe actuar como un soporte al juicio humano y nunca como un sustituto que elimine la responsabilidad última de la decisión. La capacidad de demostrar esta intervención humana será un requisito indispensable en cualquier auditoría futura.
La herencia contaminada de los datos históricos
La calidad de una decisión algorítmica depende de la pureza de sus cimientos. El uso de datasets históricos para entrenar modelos de IA en gestión del talento es una de las mayores fuentes de riesgo. Si una organización ha favorecido históricamente ciertos perfiles por género, edad o procedencia académica, la IA aprenderá y replicará esos patrones de manera invisible. El EU AI Act obliga a las compañías a demostrar la representatividad de sus datos y a realizar análisis de impacto adverso antes de poner en marcha cualquier herramienta.
Ignorar la procedencia de los datos o los sesgos latentes en las bases de datos antiguas no es solo un error técnico, sino una vulnerabilidad legal. La normativa exige que las organizaciones prueben que sus sistemas no discriminan por factores protegidos. En contraste con la opacidad habitual en los desarrollos internos de software, la nueva era regulatoria demanda una transparencia radical en la composición de las muestras de entrenamiento. Si los datos están viciados, la decisión resultante es nula y, lo que es peor, sistemáticamente injusta.
Trazabilidad y evidencia científica como activos de negocio
La falta de documentación técnica es el error administrativo que suele preceder a las grandes sanciones. La transparencia que exige el reglamento europeo implica mantener registros detallados (logs) de las decisiones, métricas de precisión y una explicación clara de la lógica del modelo. Sin este rastro documental, es imposible justificar ante un regulador por qué un sistema eligió a un candidato sobre otro. La trazabilidad se convierte así en un seguro de vida para la empresa ante posibles demandas por discriminación laboral.
Por otro lado, la validez del instrumento es el último gran pilar. Tanto el EU AI Act como los estándares profesionales de la psicología organizacional demandan evidencia clara de que la herramienta mide lo que dice medir. No es suficiente con que un proveedor tecnológico afirme que su IA detecta liderazgo; debe existir una correlación estadística y técnica entre la medición y el éxito en el puesto. Utilizar herramientas sin respaldo científico compromete la calidad estratégica de la plantilla y aumenta el riesgo de contratar perfiles inadecuados bajo una falsa sensación de seguridad tecnológica.
La adopción responsable de estas tecnologías, más allá de la mera complacencia legal, representa una oportunidad para sanear los procesos internos. La consultora BTS sostiene que las organizaciones que sean capaces de mitigar estas señales de alerta no solo evitarán multas millonarias, sino que construirán un modelo de gestión del talento mucho más robusto y ético. En última instancia, la regulación europea está obligando al mercado a recuperar el juicio humano como el valor diferencial frente a la estandarización algorítmica, redefiniendo el equilibrio entre la eficiencia de la máquina y la responsabilidad de la empresa.
Editor en La Ecuación Digital. Analista y divulgador tecnológico con más de 30 años de experiencia en el estudio del impacto de la tecnología en la empresa y la economía.
