L'analyse vidéo des expressions faciales en recrutement est-elle autorisée ?
Réponse courte
L'analyse vidéo automatisée des expressions faciales de candidats est très fortement déconseillée et, dans la plupart des cas, non conforme au RGPD. Ces outils traitent des données biométriques au sens de l'article 9 du RGPD, qui relèvent des catégories particulières de données dont le traitement est en principe interdit, sauf exception très limitée.
L'article 22 du RGPD s'oppose également à ce que ces outils prennent seuls des décisions significatives. Le futur règlement européen sur l'IA classera explicitement la reconnaissance des émotions sur le lieu de travail et en recrutement parmi les pratiques interdites ou à haut risque. La CNPD considère que la base légale est en pratique quasi impossible à démontrer.
Définition
L'analyse vidéo des expressions faciales est une technologie d'intelligence artificielle qui analyse les micro-expressions, le regard, la posture, le ton de voix et d'autres indicateurs comportementaux d'un candidat pour en déduire des traits de personnalité, des compétences ou des émotions. Utilisée lors d'entretiens d'embauche filmés, elle produit des scores censés aider à la décision de recrutement. Ces outils sont controversés tant sur le plan scientifique (validité contestée) qu'éthique et juridique.
Conditions d’exercice
L'article 9 RGPD interdit en principe le traitement des données biométriques, l'article 22 s'oppose aux décisions automatisées et le règlement (UE) 2024/1689 sur l'IA classe la reconnaissance des émotions au travail parmi les pratiques interdites ou à haut risque.
| Condition | Détail |
|---|---|
| Données biométriques | Art. 9 RGPD : traitement interdit en principe |
| Consentement | Difficile à qualifier de libre dans le recrutement |
| Décision automatisée | Art. 22 RGPD : interdiction sauf exception |
| Règlement IA | Pratique à haut risque ou interdite |
| Non-discrimination | Art. L.251-1 : risque de biais élevé |
| Transparence | Explicabilité quasi impossible |
Modalités pratiques
À défaut d'abandon du projet, l'employeur doit conduire une AIPD obligatoire, un audit externe des performances, une notice d'information explicite avec consentement et une supervision humaine de toute décision finale.
| Étape | Détail |
|---|---|
| Analyse juridique | Écarter l'outil sauf démonstration rigoureuse |
| Alternative | Entretiens classiques ou tests validés scientifiquement |
| Information | Le cas échéant, notice explicite et consentement |
| AIPD | Obligatoire, avec conclusions très critiques |
| Audit externe | Expertise indépendante des performances |
| Supervision humaine | Décision finale par un recruteur qualifié |
Pratiques et recommandations
Écarter par principe l'usage d'outils d'analyse des émotions dans le cadre du recrutement, au regard des nombreuses interdictions et réserves exprimées par les autorités.
Privilégier des méthodes de recrutement validées scientifiquement, comme les entretiens structurés et les tests professionnels standardisés, qui offrent de meilleures garanties d'équité et de conformité.
Documenter toute décision de rejet d'un tel outil dans la politique RH, afin de pouvoir justifier auprès du management et des auditeurs le choix de ne pas s'en équiper.
Surveiller l'évolution du règlement européen sur l'IA et les recommandations de la CNPD pour adapter la position de l'entreprise au fil des décisions et publications.
Former les équipes RH à identifier les offres commerciales présentant ces technologies et à en mesurer les risques juridiques et éthiques avant toute décision d'acquisition.
Cadre juridique
Les règles applicables sont particulièrement strictes.
| Référence | Objet |
|---|---|
| Art. 9 RGPD | Données biométriques et traitement interdit |
| Art. 22 RGPD | Décision individuelle automatisée |
| Art. 5 RGPD | Loyauté, licéité et minimisation |
| Art. 35 RGPD | Analyse d'impact obligatoire |
| Règlement (UE) 2024/1689 | Règlement européen sur l'IA |
| Art. L.251-1 Code du travail | Non-discrimination |
| Loi du 1er août 2018 | Régime national et CNPD |
Note
Le règlement européen sur l'IA (2024/1689) interdit explicitement l'utilisation de systèmes de reconnaissance des émotions sur le lieu de travail, sauf exceptions limitées pour des raisons médicales ou de sécurité. Cette interdiction s'étend aux phases de recrutement dans la plupart des cas.