← Article précédent
Télécharger en PDF
Article suivant →

Un outil d'IA peut-il introduire une discrimination indirecte dans le processus de recrutement ?

Réponse courte

Un outil d'IA peut effectivement introduire une discrimination indirecte dans le recrutement lorsque ses critères de sélection, apparemment neutres, désavantagent de manière disproportionnée certaines catégories de personnes protégées. L'article L.251-1 du Code du travail luxembourgeois interdit toute discrimination indirecte fondée sur des critères protégés.

La discrimination indirecte algorithmique résulte principalement de données biaisées reflétant des pratiques discriminatoires historiques ou de variables proxy corrélées à des critères protégés (code postal, université, loisirs). L'employeur est responsable même s'il n'a pas l'intention de discriminer. La charge de la preuve partagée impose à l'employeur de démontrer que les critères utilisés sont objectivement justifiés.

Définition

La discrimination indirecte algorithmique se produit lorsqu'un critère, une pratique ou une règle apparemment neutre, appliqué par un système d'IA, entraîne un désavantage particulier pour des personnes caractérisées par un critère protégé (sexe, âge, nationalité, handicap) par rapport à d'autres personnes dans une situation comparable.

Contrairement à la discrimination directe (exclusion explicite sur un critère protégé), la discrimination indirecte est invisible dans les paramètres de l'algorithme. Elle résulte des corrélations statistiques entre des variables apparemment neutres et des critères protégés, ce qui rend sa détection particulièrement complexe.

Conditions d’exercice

Le risque de discrimination indirecte algorithmique est encadré par des obligations juridiques strictes.

Élément Détail
Discrimination indirecte (L.251-1) Disposition apparemment neutre qui désavantage particulièrement des personnes caractérisées par un critère protégé, sauf justification objective par un but légitime et des moyens proportionnés
Variables proxy Variables corrélées à des critères protégés : code postal (origine ethnique), parcours scolaire (origine sociale), interruptions de carrière (sexe/maternité), centre d'intérêt (genre), prénom (nationalité)
Données historiques biaisées Si les données d'entraînement reflètent des décisions passées discriminatoires, l'algorithme reproduit et amplifie ces biais
Charge de la preuve Le candidat établit des faits présumant la discrimination ; l'employeur doit prouver que les critères sont objectivement justifiés
AI Act - Article 10 Obligation de vérifier la qualité et la représentativité des données d'entraînement pour les systèmes à haut risque
RGPD - Article 22 Droit du candidat à ne pas être soumis à une décision exclusivement automatisée et à obtenir une intervention humaine

Modalités pratiques

La prévention de la discrimination indirecte algorithmique nécessite des mesures à chaque étape du processus de recrutement.

Étape Détail
Analyse des critères Vérifier que les critères de sélection programmés dans l'IA sont objectivement liés aux compétences requises pour le poste et ne sont pas corrélés à des critères protégés
Test d'impact disparate Mesurer les taux de sélection par groupe protégé (règle des 4/5 : un taux inférieur à 80 % du groupe le plus favorisé signale un risque de discrimination)
Suppression des variables proxy Identifier et exclure les variables corrélées à des critères protégés (code postal, photo, prénom, âge, université)
Test sur données synthétiques Soumettre des profils identiques ne différant que par un critère protégé pour vérifier l'absence de traitement différencié
Supervision humaine renforcée Contrôler les recommandations algorithmiques à chaque étape et documenter les motifs de chaque décision
Voie de recours Informer les candidats de leur droit de contester une décision et de demander une intervention humaine

Pratiques et recommandations

Auditer les résultats du système de recrutement IA au minimum semestriellement en ventilant les taux de sélection par critère protégé, pour détecter les écarts statistiquement significatifs avant qu'ils ne génèrent un contentieux.

Documenter la justification objective de chaque critère de sélection utilisé par l'algorithme, en démontrant le lien direct avec les compétences et qualifications requises pour le poste.

Former les recruteurs à reconnaître les signes de discrimination indirecte dans les résultats algorithmiques et à exercer un regard critique sur les recommandations du système de décision automatisée, plutôt que de les valider automatiquement.

Prévoir une procédure de réclamation accessible pour les candidats estimant avoir été victimes d'une discrimination, avec un examen systématique de leur dossier par un décisionnaire humain.

Cadre juridique

Référence Objet
Art. L.251-1 Interdiction de la discrimination directe et indirecte dans les relations de travail
Art. L.241-1 Interdiction de la discrimination fondée sur le sexe dans le recrutement
Art. L.252-1 Charge de la preuve partagée en matière de discrimination
AI Act - Article 10 Qualité et représentativité des données d'entraînement
AI Act - Annexe III Classification du recrutement comme domaine à haut risque
RGPD - Article 22 Protection contre les décisions exclusivement automatisées
Directive (UE) 2000/78 Cadre général en faveur de l'égalité de traitement en matière d'emploi

Note

La discrimination indirecte algorithmique est particulièrement insidieuse car elle est invisible dans le paramétrage de l'outil. Un algorithme peut discriminer sans qu'aucun critère protégé n'apparaisse explicitement dans ses variables, par le seul jeu des corrélations statistiques.

L'employeur ne peut pas s'exonérer de sa responsabilité en invoquant le caractère automatisé de la décision ou l'absence d'intention discriminatoire. La responsabilité est objective et fondée sur l'effet discriminatoire constaté.

Pixie vous propose aussi...