IA en RH : éthique, biais et réglementation à connaître

Écrit par Publié le 15/04/2026 Mis à jour le 16/04/2026

L’IA s’intègre de plus en plus dans les processus de recrutement, de la gestion des talents ainsi que de l’analyse des données. Ces usages sont désormais encadrés par le droit européen, notamment l’AI Act, qui classe les outils IA comme des systèmes à haut risque, en particulier ceux qui influencent l’accès à l’emploi ou l’évolution professionnelle des collaborateurs. Pour les entreprises, l’enjeu ne se limite plus à l’efficacité des processus. Il s’agit aussi de maîtriser les risques juridiques et de garantir une utilisation conforme des technologies.

En résumé
  • Tous les usages de l’IA en RH ne se valent pas. Dès qu’un outil influence un processus de recrutement, une promotion ou une évaluation, il bascule dans un cadre juridique renforcé.
  • Trier, scorer ou classer des candidats avec une IA engage directement la responsabilité de l’entreprise.
  • Les outils de gestion des talents sont souvent sous-estimés, mais ils reproduisent facilement les décisions passées et leurs déséquilibres.
  • L’AI Act impose une logique de preuve. Toute entreprise doit être capable d’expliquer comment son outil IA fonctionne et sur quelles données il repose.
  • Les biais ne viennent pas de la technologie seule, mais des données utilisées et des pratiques internes qu’elle amplifie.
  • Les outils IA doivent être suivis, testés et ajustés pour éviter les dérives.
IA en RH : éthique, biais et réglementation à connaîtreIA en RH : éthique, biais et réglementation à connaître

Quels usages de l’IA en RH sont concernés par la réglementation ?

L’IA révolutionne le recrutement, en déplaçant le rôle des RH vers des fonctions de contrôle, d’analyse et de décision. Dès lors qu’un outil influence la sélection des candidats, il entre dans un cadre juridique renforcé, notamment au titre de l’AI Act et du RGPD.

L'évaluation automatisée des candidats

L’IA transforme les RH en introduisant des outils capables d’évaluer automatiquement des profils, ce qui renforce les exigences de fiabilité et de transparence. Lorsqu’une solution IA trie des candidatures, établit un classement ou attribue un score à un candidat, il influence directement l’accès à un poste.

Certains outils IA analysent des tests, des réponses écrites ou des entretiens vidéo pour apprécier des compétences ou des comportements. Le problème apparaît lorsque ces systèmes prétendent mesurer des éléments difficilement objectivables, comme la personnalité ou l’aptitude relationnelle.

Plus l’analyse repose sur des données indirectes ou des corrélations, plus le risque de biais augmente.

Gestion des talents et mobilité interne : un impact moins visible mais bien réel

Les outils d’IA utilisés dans la gestion des talents ou la mobilité interne donnent souvent l’impression d’un risque plus limité. Pourtant, ils influencent des décisions structurantes, comme l’accès à une promotion, à une formation ou à un changement de poste.

Leur particularité tient au fait qu’ils s’appuient sur des données historiques. Un système peut ainsi reproduire, sans intention explicite, des écarts de traitement entre profils.

Automatisation des tâches RH

À l’autre extrémité, certains usages de l’IA se limitent à l’automatisation de tâches administratives. Il peut s’agir de répondre à des questions fréquentes, de traiter des demandes internes ou de gérer des flux documentaires.

Ces outils n’ont pas d’impact direct sur la situation professionnelle d’un collaborateur. Leur encadrement repose donc principalement sur les règles classiques de protection des données. L’entreprise doit informer les utilisateurs, sécuriser les traitements et limiter la collecte aux informations nécessaires.

IA en RH : quelle réglementation s’applique aux entreprises ?

L'intelligence artificielle au service des RH s’inscrit dans un cadre juridique structuré, qui relève de deux cadres. Le RGPD s’applique dès qu’un outil traite des données de candidats ou de collaborateurs. L’AI Act, entré en vigueur le 1er août 2024, ajoute une logique de classement par niveau de risque. Ses interdictions et les obligations de culture IA s’appliquent depuis le 2 février 2025, et le régime général s’appliquera à partir du 2 août 2026.

Pourquoi l’IA en recrutement est classée à haut risque par l’AI Act ?

Le règlement européen classe comme “à haut risque” tous les systèmes utilisés pour filtrer des candidatures, analyser des profils ou évaluer des candidats.

Cela signifie que l’entreprise doit démontrer que son outil repose sur des données pertinentes, qu’il limite les biais et qu’il reste contrôlable. L’enjeu dépasse la performance technique. Il s’agit de pouvoir justifier chaque décision.

Décision automatisée en RH : ce que le RGPD autorise ou interdit

Sur le terrain du droit du travail, l’INTEFP rappelle que l’enjeu central reste le pouvoir de décision de l’employeur. L’article 22 du RGPD, repris en droit français, interdit en principe qu’une décision produisant des effets significatifs repose uniquement sur une machine.

Cela concerne directement le recrutement, la mobilité et certaines décisions de gestion. L’employeur doit garantir une intervention humaine réelle, capable de remettre en cause le résultat proposé par le système.

Transparence et données RH : quelles obligations pour l’employeur ?

La CNIL exige que la finalité du traitement soit expliquée en termes clairs. Pour un entretien vidéo, il ne suffit pas d’indiquer qu’un outil est utilisé ; il faut préciser qu’il sert à évaluer l’aptitude ou les compétences dans le cadre du recrutement. La même logique vaut pour la conservation des dossiers. Pour un candidat non retenu, la durée recommandée n’excède en principe pas deux ans après le dernier contact.

LamyLia, l’IA juridique qui fait jurisprudence

Accédez à une IA juridique qui structure vos analyses, mobilise des sources vérifiables et s’appuie exclusivement sur les fonds éditoriaux Lamy Liaisons pour éclairer vos décisions.
Liaisons Sociales avec LamyliaLiaisons Sociales avec Lamylia

Les biais et enjeux éthiques de l’IA en recrutement

Les biais algorithmiques : un risque structurel

Un système d’intelligence artificielle apprend à partir de données existantes. Si ces données reflètent des déséquilibres, l’outil les reproduit. Dans le recrutement, cela peut conduire à favoriser certains profils au détriment d’autres, sans intention explicite.

L’opacité des modèles : un obstacle à la décision RH

Certains outils fonctionnent comme des “boîtes noires”. Ils produisent un résultat sans permettre d’en comprendre précisément la logique. Pour les RH, cela pose un problème majeur. Une décision ne peut pas être justifiée si son fondement reste opaque. Or, le droit impose une capacité d’explication.

Vers une exigence d’équité dans les processus RH

L’enjeu dépasse la conformité. L’IA transforme la manière dont les décisions sont prises, mais elle impose aussi une exigence plus forte de cohérence et de justification.

Les entreprises doivent être capables de démontrer que leurs processus restent équitables, même lorsqu’ils reposent sur des outils automatisés.

Enjeu éthique Origine du risque Impact en RH Point de vigilance
Biais algorithmiques Données historiques déséquilibrées Discrimination indirecte entre candidats Qualité et diversité des données
Opacité des modèles Fonctionnement non explicable Impossible de justifier une décision Exigence d’explicabilité
Reproduction des pratiques internes Apprentissage basé sur les décisions passées Maintien de déséquilibres existants Analyse critique des résultats
Exigence d’équité Usage massif de l’automatisation Risque d’inéquité systémique Suivi régulier des écarts

Comment intégrer l’IA en RH de manière conforme et responsable ?

  • La première étape consiste à identifier les usages de l’IA au sein de la fonction RH. Cette cartographie permet de distinguer les outils à faible impact des systèmes qui influencent une décision. À partir de ce point, l’entreprise doit définir des règles internes, désigner des responsables et encadrer les conditions d’utilisation. Sans cette structuration, aucun pilotage réel n’est possible.
  • Le respect du cadre légal repose sur une intervention humaine réelle. Cela suppose que les équipes comprennent le fonctionnement des outils utilisés. À défaut, le contrôle devient formel et perd toute portée juridique.
  • La conformité ne se limite pas à la mise en place initiale. Les systèmes doivent être suivis, testés et ajustés. Un outil peut produire des résultats corrects au départ puis dériver avec le temps, en fonction des données qu’il traite. LamyLia, l'IA juridique Lamy Liaisons intègre cette exigence dans son fonctionnement, avec un suivi continu assuré par des juristes et des experts IT.

FAQ

Toutes les réponses aux questions que vous vous posez.

Quels sont les principaux défis juridiques associés à l'IA dans les RH ?

Le principal enjeu réside dans la combinaison de plusieurs obligations. L’entreprise doit à la fois respecter le RGPD, éviter toute discrimination et se conformer aux exigences de l’AI Act pour les systèmes à haut risque. La difficulté tient à la capacité de prouver que l’outil est maîtrisé, compris et utilisé de manière justifiée.

Comment s'assurer que l'IA utilisée respecte l'éthique ?

Le respect de l’éthique repose d’abord sur la qualité des données utilisées, puis sur la capacité à détecter des biais dans les résultats. Cela suppose un suivi régulier des outils et une vigilance sur les écarts de traitement entre candidats ou collaborateurs.

Quelles sont les meilleures pratiques pour intégrer l'IA dans les processus RH ?

Une intégration maîtrisée passe par une cartographie des usages, un contrôle humain réel et une documentation des traitements. La formation des équipes constitue également un levier clé pour sécuriser les décisions.
 Ce contenu n'a pas été rédigé par la rédaction Lamy Liaisons. Il doit être interprété avec discernement et ne saurait servir de fondement à une décision juridique sans validation préalable par un professionnel qualifié.