En el marco regulador de la UE, utilizar la IA en los procesos de selección sin considerar y comprender sus implicaciones legales ya no es una opción.
La UE ha clasificado oficialmente la contratación y la selección como un caso de uso de 'Alto Riesgo' bajo la nueva Ley de IA. Simultáneamente, la Directiva de Transparencia Retributiva está desplazando la carga de la prueba. Ya no se trata solo de preguntar: "¿Fue justo nuestro proceso?". Ahora, las autoridades reguladoras exigen: "¿Puede demostrar que fue justo?"
Para quienes lideran RR. HH. y los equipos de Adquisición de Talento, estas normativas superpuestas suponen un cambio masivo en la forma en que debe documentarse y ejecutarse la contratación.
En este artículo, desglosaremos qué significa realmente este “alto riesgo”, por qué es importante y los cambios operativos que su equipo necesita realizar para cumplir con la normativa.
¿Cuándo se considera “alto riesgo” la IA en selección?
A ojos de la Ley de IA de la UE, el "Alto Riesgo" no significa que su IA sea excesivamente compleja o intrínsecamente peligrosa. La clasificación se basa enteramente en su finalidad prevista y en su impacto potencial en los derechos fundamentales y las oportunidades profesionales de las personas.
La regla de oro para los equipos de selección se encuentra en el Anexo III de la Ley: la lista oficial de casos de uso de IA de alto riesgo predefinidos. Cualquier sistema de IA aplicado a las áreas enumeradas aquí se considera de alto riesgo por defecto.
El Anexo III señala explícitamente el "Empleo, gestión de personas trabajadoras y acceso al autoempleo", destacando:
Publicación de anuncios de empleo dirigidos.
Análisis y filtrado de solicitudes (procesamiento de CV).
Evaluación y clasificación de personas candidatas.
Esto significa que la gran mayoría de las herramientas automatizadas de contratación, desde la segmentación de anuncios y el cribado hasta la preselección, probablemente entren en la categoría de alto riesgo.
¿Por qué la IA en selección está bajo tanta regulación?
La normativa no busca frenar el uso de la IA, sino garantizar que su impacto sea justo, transparente y controlable.
En concreto, pone el foco en tres riesgos principales:
Sesgos acumulados: Los procesos de selección han acumulado históricamente sesgos (género, universidades, experiencia previa…). El AI Act exige datos de calidad y mecanismos activos para detectar y mitigar estos sesgos.
Sesgo de automatización: Todo el mundo quiere realizar el cribado más rápido, pero a la UE le preocupa el "sesgo de automatización", la tendencia de las personas a confiar ciegamente en los resultados de la IA. La ley exige supervisión humana. Una persona supervisar e interpretar los resultados de la IA y tener autoridad para anularlos o ignorarlos.
Falta de trazabilidad: Los sistemas de alto riesgo deben disponer de un registro automático de eventos (logs). Es necesario proporcionar instrucciones claras, limitaciones y finalidades previstas. En resumen: Debe poder reconstruir exactamente cómo se tomó una decisión de contratación.
Qué debe cambiar tu equipo desde hoy
Que la IA en selección sea “alto riesgo” no es solo una clasificación legal. Es una señal clara de que los procesos deben evolucionar.
Y aquí hay un punto importante: la responsabilidad no recae solo en el proveedor tecnológico. Como empresa, tú eres quien utiliza la IA y quien debe garantizar el cumplimiento.
Estos son los cambios clave:
1. Audita todo tu proceso de selección
Identifica en qué momentos interviene la IA: ATS, herramientas de screening, publicación de ofertas, recomendaciones internas…
2. Define criterios antes de empezar
Debes establecer criterios objetivos (y neutros en cuanto al género) desde el inicio del proceso y aplicarlos de forma consistente.
3. Sustituye los registros informales
Las hojas de Excel, los comentarios en Slack, correos electrónicos o notas adhesivas no superarán una auditoría. La Ley de IA de la UE exige un registro automatizado. Su sistema debe capturar la "cadena de custodia" de una decisión a medida que ocurre.
4. Documenta la "supervisión humana"
No basta con decir que una persona toma la decisión final. Debes poder demostrar quién intervino, en qué momento y por qué.
5. Cuidado con modificar herramientas de IA
Si adaptas modelos, creas lógica propia o reconfiguras sistemas, podrías asumir responsabilidades legales mayores como proveedor.
La lógica detrás EU AI Act: demostrar, no afirmar
La Directiva introduce un cambio clave:
La equidad no se declara, se demuestra
Si una persona candidata cuestiona una decisión, tendrás que poder explicar:
Por qué fue evaluada de una determinada manera
Si los criterios eran objetivos
Qué papel jugó la IA y qué revisó el equipo de selección
BlindStairs, la inteligencia lista para auditoría
Para las organizaciones que ya utilizan un ATS, el reto rara vez es la falta de herramientas.
El reto es si las decisiones de contratación actuales pueden ser explicadas, reconstruidas y defendidas bajo las nuevas normativas de la UE.
BlindStairs está diseñado precisamente para este escenario.
No sustituye a su ATS ni interrumpe sus flujos de trabajo.
En su lugar, se integra directamente en su infraestructura de contratación existente para garantizar que:
los criterios de evaluación se definan de antemano,
las decisiones se apliquen de forma coherente,
y cada resultado de contratación pueda ser rastreado y explicado si se revisa.
En la práctica, añade una capa de cumplimiento y explicabilidad sin aumentar la carga operativa.
¿Y si estás empezando o no tienes ATS?
No todas las organizaciones se encuentran en el mismo nivel de madurez en sus procesos de selección.
Algunos equipos:
contratan sin un ATS,
están en una fase temprana de adopción de la IA,
o buscan mejorar la eficiencia sin introducir riesgos legales.
Para estos equipos, Merified AI ofrece una solución independiente y lista para usar que permite la selección impulsada por IA manteniendo la alineación total con los requisitos reglamentarios de la UE.
Merified AI apoya a las organizaciones:
ayudando a definir criterios de evaluación objetivos y relevantes para el puesto antes de que comience la contratación,
permitiendo un cribado basado en el mérito centrado en habilidades y responsabilidades,
e integrando la explicabilidad y la trazabilidad en el proceso desde el principio.
Esto permite a los equipos beneficiarse de la eficiencia de la IA sin crear decisiones de contratación opacas o indefendibles.
El cumplimiento no se trata solo de las herramientas. Se trata del proceso
Independientemente de si las organizaciones utilizan un ATS o no, la pregunta regulatoria sigue siendo la misma:
¿Puedes explicar cómo se tomó cada decisión de contratación?
La Ley de IA de la UE y la Directiva de Transparencia Retributiva no evalúan la tecnología de forma aislada.
Evalúan si los procesos de contratación son estructurados, neutros, trazables y defendibles.
Cuando el proceso está bien diseñado, el cumplimiento deja de ser una carga y pasa a ser una consecuencia natural.
👉 ¿Quieres preparar tu proceso de selección para EU AI Act?
Reserva una demostración o habla con nuestro equipo hoy mismo para ver cómo BlindStairs puede ayudarle a crear un proceso de contratación eficiente y auditable.