L'employeur peut-il utiliser des outils d'analyse de sentiment ou d'IA émotionnelle sur les salariés ?
Réponse courte
L'utilisation des systèmes d'IA visant à inférer les émotions des salariés sur le lieu de travail est interdite par l'article 5 du règlement (UE) 2024/1689 (AI Act), entré en application en février 2025, à l'instar du contrôle par IA des salariés. Les seules exceptions concernent les finalités médicales ou de sécurité au sens strict (détection de fatigue extrême chez un conducteur, par exemple). L'analyse de sentiment des courriels, conversations Teams ou Slack pour évaluer le moral ou l'engagement des salariés est donc interdite.
Les analyses agrégées et anonymisées par équipe (sondages, enquêtes climat) restent autorisées si elles respectent le RGPD. Tout déploiement, même résiduel, exige une AIPD approfondie, la consultation de la délégation et une information individuelle, comme pour l'usage de l'IA dans le recrutement. Les sanctions cumulent celles de l'AI Act (jusqu'à 35 millions d'euros ou 7 % du CA mondial) et celles du RGPD.
Définition
L'IA émotionnelle ou analyse de sentiment désigne les systèmes algorithmiques visant à inférer l'état émotionnel d'une personne à partir de données observables : expressions faciales, voix, écrits, comportement numérique. Elle inclut les outils d'analyse de courriels (Polaris, Receptiviti), de tonalité de réunions (Sybill, Otter analytics) ou d'analyse vidéo en entretien.
L'AI Act (règlement (UE) 2024/1689) classe ces systèmes comme à risque inacceptable dans le contexte de l'emploi, sauf exceptions strictes (médicales ou de sécurité publique).
Questions fréquentes
Conditions d’exercice
L'interdiction de l'AI Act vise spécifiquement les systèmes inférant les émotions sur le lieu de travail ; même un système globalement autorisé ailleurs (commerce, marketing) est interdit dès qu'il s'applique à des salariés ou candidats.
| Condition | Exigence |
|---|---|
| Interdiction de principe | Article 5(1)(f) AI Act : interdit dans le contexte travail et éducation |
| Exceptions médicales | Détection de fatigue/somnolence chez un conducteur (sécurité publique) |
| Exceptions de sécurité | Détection d'intrusion ou d'agression dans des contextes très spécifiques |
| Analyses agrégées | Sondages anonymes par équipe (≥ 5 personnes) restent autorisés sous RGPD |
| AIPD systématique | Pour toute analyse agrégée, AIPD obligatoire avec consultation préalable CNPD le cas échéant |
| Information renforcée | Mention explicite dans la note salariés et la charte informatique |
Modalités pratiques
Les outils marketés comme « well-being » ou « engagement » qui analysent les écrits ou les expressions faciales sont visés par l'interdiction, même si l'éditeur prétend le contraire ; il faut s'attacher à la fonction réelle, pas à l'étiquette commerciale.
| Démarche | Précision |
|---|---|
| Audit des outils existants | Inventaire de tous les systèmes susceptibles d'inférer des émotions |
| Désactivation des fonctions interdites | Coupure immédiate des modules de sentiment ou d'analyse émotionnelle |
| Vérification des éditeurs | Demande écrite aux fournisseurs sur les fonctions IA actives |
| Substitution par sondages anonymes | Remplacement par des enquêtes climat agrégées et volontaires |
| AIPD pour les outils résiduels | Documentation détaillée si une fonction est conservée pour finalité médicale |
| Notice au personnel | Information sur la non-utilisation d'IA émotionnelle |
| Veille réglementaire | Suivi des lignes directrices européennes et nationales sur l'AI Act |
Pratiques et recommandations
Auditer sans délai tous les outils RH et collaboratifs susceptibles d'inférer des émotions, y compris ceux marketés sous d'autres dénominations (well-being, engagement, productivity).
Désactiver immédiatement toute fonction d'analyse de sentiment, de tonalité ou d'expression émotionnelle des salariés, sans attendre une éventuelle plainte.
Substituer ces outils par des enquêtes climat anonymes et volontaires, agrégées par équipe, conformes au RGPD.
Documenter par écrit l'absence d'utilisation d'IA émotionnelle dans le registre des traitements et la note d'information aux salariés.
Demander systématiquement aux éditeurs IT une attestation écrite sur les fonctions IA actives ou désactivables dans leurs produits.
Former le DPO et les RH à la qualification des systèmes interdits par l'AI Act, particulièrement dans les outils déjà déployés.
Cadre juridique
| Référence | Objet |
|---|---|
| Art. 5(1)(f) du règlement (UE) 2024/1689 (AI Act) | Interdiction des systèmes inférant les émotions au travail |
| Art. 99 du règlement (UE) 2024/1689 | Sanctions jusqu'à 35 M€ ou 7 % du CA mondial |
| Art. 22 du RGPD | Décisions automatisées et profilage |
| Art. 9 du RGPD | Données sensibles (état mental) |
| Art. L.261-1 du Code du travail | Encadrement luxembourgeois |
| Lignes directrices CEPD | Sur le profilage et les décisions automatisées |
Note
L'utilisation d'une IA émotionnelle interdite cumule les sanctions de l'AI Act (jusqu'à 35 M€ ou 7 % du CA mondial) et celles du RGPD (jusqu'à 4 % du CA mondial), avec interdiction immédiate du dispositif et action en réparation des salariés concernés.