La inteligencia artificial está alterando los métodos tradicionales de selección de personal. Se utiliza prácticamente en todas partes, desde la redacción de ofertas de trabajo, el análisis de CV, la preselección de candidatos, el análisis de entrevistas en vídeo, hasta la toma de decisiones. La inmersión de la IA es tal que algunos incluso imaginan que el reclutamiento está totalmente orquestado por esta tecnología. Pero, legalmente, ¿es realmente posible prescindir de los reclutadores humanos?

El Reglamento General de Protección de Datos (RGPD) prohíbe, en principio, las decisiones basadas exclusivamente en el tratamiento automatizado. No se podrán tratar datos personales sin intervención humana en el proceso de toma de decisiones si dicho tratamiento produce efectos jurídicos o afecta significativamente a la situación de las personas afectadas.

No hay duda de que la decisión de contratar o no a un candidato determinado afecta a los candidatos. En cambio, la cuestión de la intervención humana es más discutible, en particular si se añade un reclutador humano al final de la cadena, como simple validador formal del candidato propuesto por la IA. Si bien la intervención de un reclutador humano en el proceso de contratación puede permitir evitar la prohibición de la toma de decisiones automatizada, no debe ir sistemáticamente en el sentido de la IA. La CNIL pudo precisar que si esta última es solo un validador formal, la decisión puede considerarse tomada sin intervención humana.

El derecho de los candidatos a no ser rechazados por AI

En caso de que la decisión se base exclusivamente en el tratamiento automatizado, el reclutador deberá informar a los interesados ​​de sus derechos, en particular del derecho a obtener intervención humana en el proceso de selección. Esto significa, en concreto, que un candidato tiene derecho a que un reclutador humano analice su solicitud y decida el curso que debe darse a la misma. Si esto no se respeta, el reclutador estará infringiendo el RGPD.

Además, la implantación de una solución de IA en los departamentos de RRHH requiere generalmente la realización de un análisis de impacto sobre la protección de datos (EIPD) que tenga en cuenta los riesgos específicos de esta solución. En efecto, el tratamiento de datos personales inherente al desarrollo y la implantación de una solución de este tipo puede presentar un alto riesgo para los derechos y libertades de los candidatos. La Comisión Nacional de Informática y Libertades (CNIL) menciona explícitamente que el tratamiento algorítmico para la selección de candidatos requiere necesariamente un EIPD.

Anticipando el cumplimiento de la Ley de IA

Además de las cuestiones de protección de datos, la UE ha adoptado recientemente el Reglamento n.º 2024/1689, de 13 de junio de 2024, sobre inteligencia artificial (AI Act). Este reglamento entrará en vigor el 1 de agosto de 2024 y será plenamente aplicable a partir del 2 de agosto de 2026, con excepción de determinadas disposiciones relativas a prácticas prohibidas (aplicables a partir del 2 de febrero de 2025), normas relativas a la IA de uso general, incluida la gobernanza (aplicables a partir del 2 de agosto de 2025) y obligaciones para los sistemas de IA de alto riesgo (aplicables a partir del 2 de agosto de 2027). Este reglamento afectará tanto a los proveedores de soluciones de IA como a los reclutadores que utilicen soluciones de IA.

Uno de los objetivos de la Ley de IA es reducir el riesgo de que se tomen decisiones erróneas o sesgadas con la ayuda de la IA en ámbitos cruciales como el empleo. Para ello, el Anexo 3 de la Ley de IA considera de alto riesgo “los sistemas de IA destinados a ser utilizados para el reclutamiento o la selección de personas físicas, en particular para publicar ofertas de trabajo específicas, analizar y filtrar solicitudes y evaluar candidatos”.

Según el considerando 36 de la Ley de IA, “los sistemas de IA utilizados en la contratación, la gestión de la fuerza laboral y el acceso al trabajo por cuenta propia deben clasificarse como de alto riesgo. Tienen un impacto significativo en las perspectivas profesionales y los medios de vida de las personas. Estos sistemas pueden perpetuar patrones de discriminación histórica, como los relacionados con el género, la edad, la discapacidad, la etnia o la orientación sexual. Además, pueden afectar a los derechos de protección de datos y privacidad”.

Una evaluación de riesgos previa

Incluso antes de su implantación, las soluciones de IA que se utilicen en el proceso de selección de personal tendrán que evaluar los riesgos con antelación y cumplir determinadas obligaciones. Los proveedores de estas soluciones tendrán que diseñar su solución de IA para alcanzar niveles adecuados de precisión, robustez y ciberseguridad. En particular, tendrán que demostrar que su solución cumple los estándares previstos, gestionar y evaluar los riesgos, combatir los sesgos, proporcionar documentación técnica precisa, rastrear numerosos eventos, proporcionar información transparente a los usuarios, garantizar una supervisión humana adecuada y cooperar con las autoridades competentes.

Se recomienda que estos proveedores documenten el funcionamiento de su sistema ahora y comiencen el ejercicio de auditar su solución con miras al cumplimiento de la Ley de IA, lo que será una tarea importante.

Pero los reclutadores, en su calidad de usuarios, también tendrán obligaciones. En particular, deberán respetar las instrucciones de uso del proveedor de la solución, asegurarse de que los datos introducidos sean pertinentes y suficientemente representativos, conservar los eventos, suspender el uso de la solución e informar a las autoridades competentes en caso de duda sobre la conformidad de la solución.

Los reclutadores deberán informar a los órganos de representación de los trabajadores antes de implementar estas soluciones. Además, el código laboral francés prohíbe a los reclutadores discriminar a los candidatos a un puesto de trabajo, independientemente del motivo o el ámbito de trabajo. En caso contrario, el reclutador se expone a sanciones civiles y penales. Por tanto, es de su interés asegurarse de que no se produzcan discriminaciones a causa de la IA.

Cuestionando la relevancia de la IA para el reclutamiento

En última instancia, los proveedores de soluciones de IA utilizadas en la selección de personal y los reclutadores, como usuarios de estas soluciones, estarán sujetos a numerosas obligaciones regulatorias. Antes de cualquier implementación, se recomienda encarecidamente verificar las condiciones contractuales de estos proveedores y, si es necesario, negociar y acordar los riesgos contractuales entre proveedores y usuarios.

Más allá del marco puramente legal, cada reclutador tendrá que cuestionarse la pertinencia y oportunidad de utilizar la IA para reclutar a su personal. Por ejemplo, la IA puede ser preferida para ciertos puestos (como aquellos en los que se esperan habilidades técnicas), y el reclutamiento "clásico" puede ser preferido para otros puestos (como aquellos que implican contacto humano o buenas habilidades pedagógicas). El reclutador humano tendrá que definir criterios de uso consistentes para su empresa y tener en cuenta los riesgos identificados específicos de la solución de IA utilizada. Si un empleador utiliza un proveedor de servicios externo, no dude en preguntarle para saber en qué medida y con qué garantías utilizará la IA. La gobernanza de la IA seguirá en manos de los reclutadores humanos, al menos en el futuro cercano.