Un outil d'IA peut-il introduire une discrimination indirecte dans le processus de recrutement ?
Réponse courte
Un outil d'IA peut effectivement introduire une discrimination indirecte dans le recrutement lorsque ses critères de sélection, apparemment neutres, désavantagent de manière disproportionnée certaines catégories de personnes protégées. L'article L.251-1 du Code du travail luxembourgeois interdit toute discrimination indirecte fondée sur des critères protégés.
La discrimination indirecte algorithmique résulte principalement de données biaisées reflétant des pratiques discriminatoires historiques ou de variables proxy corrélées à des critères protégés (code postal, université, loisirs). L'employeur est responsable même s'il n'a pas l'intention de discriminer. La charge de la preuve partagée impose à l'employeur de démontrer que les critères utilisés sont objectivement justifiés.
Définition
La discrimination indirecte algorithmique se produit lorsqu'un critère, une pratique ou une règle apparemment neutre, appliqué par un système d'IA, entraîne un désavantage particulier pour des personnes caractérisées par un critère protégé (sexe, âge, nationalité, handicap) par rapport à d'autres personnes dans une situation comparable.
Contrairement à la discrimination directe (exclusion explicite sur un critère protégé), la discrimination indirecte est invisible dans les paramètres de l'algorithme. Elle résulte des corrélations statistiques entre des variables apparemment neutres et des critères protégés, ce qui rend sa détection particulièrement complexe.
Conditions d’exercice
Le risque de discrimination indirecte algorithmique est encadré par des obligations juridiques strictes.
| Élément | Détail |
|---|---|
| Discrimination indirecte (L.251-1) | Disposition apparemment neutre qui désavantage particulièrement des personnes caractérisées par un critère protégé, sauf justification objective par un but légitime et des moyens proportionnés |
| Variables proxy | Variables corrélées à des critères protégés : code postal (origine ethnique), parcours scolaire (origine sociale), interruptions de carrière (sexe/maternité), centre d'intérêt (genre), prénom (nationalité) |
| Données historiques biaisées | Si les données d'entraînement reflètent des décisions passées discriminatoires, l'algorithme reproduit et amplifie ces biais |
| Charge de la preuve | Le candidat établit des faits présumant la discrimination ; l'employeur doit prouver que les critères sont objectivement justifiés |
| AI Act - Article 10 | Obligation de vérifier la qualité et la représentativité des données d'entraînement pour les systèmes à haut risque |
| RGPD - Article 22 | Droit du candidat à ne pas être soumis à une décision exclusivement automatisée et à obtenir une intervention humaine |
Modalités pratiques
La prévention de la discrimination indirecte algorithmique nécessite des mesures à chaque étape du processus de recrutement.
| Étape | Détail |
|---|---|
| Analyse des critères | Vérifier que les critères de sélection programmés dans l'IA sont objectivement liés aux compétences requises pour le poste et ne sont pas corrélés à des critères protégés |
| Test d'impact disparate | Mesurer les taux de sélection par groupe protégé (règle des 4/5 : un taux inférieur à 80 % du groupe le plus favorisé signale un risque de discrimination) |
| Suppression des variables proxy | Identifier et exclure les variables corrélées à des critères protégés (code postal, photo, prénom, âge, université) |
| Test sur données synthétiques | Soumettre des profils identiques ne différant que par un critère protégé pour vérifier l'absence de traitement différencié |
| Supervision humaine renforcée | Contrôler les recommandations algorithmiques à chaque étape et documenter les motifs de chaque décision |
| Voie de recours | Informer les candidats de leur droit de contester une décision et de demander une intervention humaine |
Pratiques et recommandations
Auditer les résultats du système de recrutement IA au minimum semestriellement en ventilant les taux de sélection par critère protégé, pour détecter les écarts statistiquement significatifs avant qu'ils ne génèrent un contentieux.
Documenter la justification objective de chaque critère de sélection utilisé par l'algorithme, en démontrant le lien direct avec les compétences et qualifications requises pour le poste.
Former les recruteurs à reconnaître les signes de discrimination indirecte dans les résultats algorithmiques et à exercer un regard critique sur les recommandations du système de décision automatisée, plutôt que de les valider automatiquement.
Prévoir une procédure de réclamation accessible pour les candidats estimant avoir été victimes d'une discrimination, avec un examen systématique de leur dossier par un décisionnaire humain.
Cadre juridique
| Référence | Objet |
|---|---|
| Art. L.251-1 | Interdiction de la discrimination directe et indirecte dans les relations de travail |
| Art. L.241-1 | Interdiction de la discrimination fondée sur le sexe dans le recrutement |
| Art. L.252-1 | Charge de la preuve partagée en matière de discrimination |
| AI Act - Article 10 | Qualité et représentativité des données d'entraînement |
| AI Act - Annexe III | Classification du recrutement comme domaine à haut risque |
| RGPD - Article 22 | Protection contre les décisions exclusivement automatisées |
| Directive (UE) 2000/78 | Cadre général en faveur de l'égalité de traitement en matière d'emploi |
Note
La discrimination indirecte algorithmique est particulièrement insidieuse car elle est invisible dans le paramétrage de l'outil. Un algorithme peut discriminer sans qu'aucun critère protégé n'apparaisse explicitement dans ses variables, par le seul jeu des corrélations statistiques.
L'employeur ne peut pas s'exonérer de sa responsabilité en invoquant le caractère automatisé de la décision ou l'absence d'intention discriminatoire. La responsabilité est objective et fondée sur l'effet discriminatoire constaté.