← Article précédent
Télécharger en PDF
Article suivant →

L'employeur peut-il utiliser des outils d'analyse de sentiment ou d'IA émotionnelle sur les salariés ?

Réponse courte

L'utilisation des systèmes d'IA visant à inférer les émotions des salariés sur le lieu de travail est interdite par l'article 5 du règlement (UE) 2024/1689 (AI Act), entré en application en février 2025, à l'instar du contrôle par IA des salariés. Les seules exceptions concernent les finalités médicales ou de sécurité au sens strict (détection de fatigue extrême chez un conducteur, par exemple). L'analyse de sentiment des courriels, conversations Teams ou Slack pour évaluer le moral ou l'engagement des salariés est donc interdite.

Les analyses agrégées et anonymisées par équipe (sondages, enquêtes climat) restent autorisées si elles respectent le RGPD. Tout déploiement, même résiduel, exige une AIPD approfondie, la consultation de la délégation et une information individuelle, comme pour l'usage de l'IA dans le recrutement. Les sanctions cumulent celles de l'AI Act (jusqu'à 35 millions d'euros ou 7 % du CA mondial) et celles du RGPD.

Définition

L'IA émotionnelle ou analyse de sentiment désigne les systèmes algorithmiques visant à inférer l'état émotionnel d'une personne à partir de données observables : expressions faciales, voix, écrits, comportement numérique. Elle inclut les outils d'analyse de courriels (Polaris, Receptiviti), de tonalité de réunions (Sybill, Otter analytics) ou d'analyse vidéo en entretien.

L'AI Act (règlement (UE) 2024/1689) classe ces systèmes comme à risque inacceptable dans le contexte de l'emploi, sauf exceptions strictes (médicales ou de sécurité publique).

Questions fréquentes

Comment savoir si un outil RH utilise de l'IA émotionnelle interdite ?
Il faut auditer tous les outils RH et collaboratifs susceptibles d'inférer des émotions, y compris ceux marketés sous d'autres dénominations (well-being, engagement, productivity). Une attestation écrite doit être demandée aux éditeurs sur les fonctions IA actives.
Dans quels cas une IA émotionnelle reste-t-elle autorisée ?
Uniquement pour des finalités médicales ou de sécurité au sens strict : détection de fatigue ou somnolence chez un conducteur (sécurité publique), détection d'intrusion ou d'agression dans des contextes très spécifiques. Une AIPD documentée est exigée.
L'IA émotionnelle est-elle interdite sur le lieu de travail au Luxembourg ?
Oui, l'article 5(1)(f) du règlement (UE) 2024/1689 (AI Act), entré en application en février 2025, interdit les systèmes d'IA visant à inférer les émotions des salariés. Les exceptions concernent uniquement les finalités médicales ou de sécurité publique.
Les sondages climat anonymes sont-ils encore autorisés en 2026 ?
Oui, les analyses agrégées et anonymisées par équipe (≥ 5 personnes), comme les sondages climat ou enquêtes d'engagement volontaires, restent autorisées si elles respectent le RGPD avec AIPD et consultation préalable de la CNPD le cas échéant.
Peut-on analyser les emails ou Slack pour mesurer le moral des salariés ?
Non, l'analyse de sentiment des courriels, conversations Teams ou Slack pour évaluer le moral ou l'engagement est interdite par l'AI Act. Cette pratique relève des systèmes à risque inacceptable dans le contexte de l'emploi.
Que faire si un outil déjà déployé contient une fonction d'analyse émotionnelle ?
Désactiver immédiatement toute fonction d'analyse de sentiment, de tonalité ou d'expression émotionnelle, sans attendre une plainte. Substituer par des enquêtes climat anonymes et volontaires, agrégées par équipe, conformes au RGPD.
Quelles sanctions risque un employeur utilisant une IA émotionnelle interdite ?
Les sanctions cumulent l'AI Act (jusqu'à 35 millions € ou 7 % du CA mondial, article 99) et le RGPD (jusqu'à 4 % du CA mondial), avec interdiction immédiate du dispositif et action en réparation des salariés concernés.

Conditions d’exercice

L'interdiction de l'AI Act vise spécifiquement les systèmes inférant les émotions sur le lieu de travail ; même un système globalement autorisé ailleurs (commerce, marketing) est interdit dès qu'il s'applique à des salariés ou candidats.

Condition Exigence
Interdiction de principe Article 5(1)(f) AI Act : interdit dans le contexte travail et éducation
Exceptions médicales Détection de fatigue/somnolence chez un conducteur (sécurité publique)
Exceptions de sécurité Détection d'intrusion ou d'agression dans des contextes très spécifiques
Analyses agrégées Sondages anonymes par équipe (≥ 5 personnes) restent autorisés sous RGPD
AIPD systématique Pour toute analyse agrégée, AIPD obligatoire avec consultation préalable CNPD le cas échéant
Information renforcée Mention explicite dans la note salariés et la charte informatique

Modalités pratiques

Les outils marketés comme « well-being » ou « engagement » qui analysent les écrits ou les expressions faciales sont visés par l'interdiction, même si l'éditeur prétend le contraire ; il faut s'attacher à la fonction réelle, pas à l'étiquette commerciale.

Démarche Précision
Audit des outils existants Inventaire de tous les systèmes susceptibles d'inférer des émotions
Désactivation des fonctions interdites Coupure immédiate des modules de sentiment ou d'analyse émotionnelle
Vérification des éditeurs Demande écrite aux fournisseurs sur les fonctions IA actives
Substitution par sondages anonymes Remplacement par des enquêtes climat agrégées et volontaires
AIPD pour les outils résiduels Documentation détaillée si une fonction est conservée pour finalité médicale
Notice au personnel Information sur la non-utilisation d'IA émotionnelle
Veille réglementaire Suivi des lignes directrices européennes et nationales sur l'AI Act

Pratiques et recommandations

Auditer sans délai tous les outils RH et collaboratifs susceptibles d'inférer des émotions, y compris ceux marketés sous d'autres dénominations (well-being, engagement, productivity).

Désactiver immédiatement toute fonction d'analyse de sentiment, de tonalité ou d'expression émotionnelle des salariés, sans attendre une éventuelle plainte.

Substituer ces outils par des enquêtes climat anonymes et volontaires, agrégées par équipe, conformes au RGPD.

Documenter par écrit l'absence d'utilisation d'IA émotionnelle dans le registre des traitements et la note d'information aux salariés.

Demander systématiquement aux éditeurs IT une attestation écrite sur les fonctions IA actives ou désactivables dans leurs produits.

Former le DPO et les RH à la qualification des systèmes interdits par l'AI Act, particulièrement dans les outils déjà déployés.

Cadre juridique

Référence Objet
Art. 5(1)(f) du règlement (UE) 2024/1689 (AI Act) Interdiction des systèmes inférant les émotions au travail
Art. 99 du règlement (UE) 2024/1689 Sanctions jusqu'à 35 M€ ou 7 % du CA mondial
Art. 22 du RGPD Décisions automatisées et profilage
Art. 9 du RGPD Données sensibles (état mental)
Art. L.261-1 du Code du travail Encadrement luxembourgeois
Lignes directrices CEPD Sur le profilage et les décisions automatisées

Note

L'utilisation d'une IA émotionnelle interdite cumule les sanctions de l'AI Act (jusqu'à 35 M€ ou 7 % du CA mondial) et celles du RGPD (jusqu'à 4 % du CA mondial), avec interdiction immédiate du dispositif et action en réparation des salariés concernés.

Pixie vous propose aussi...