← Article précédent
Télécharger en PDF
Article suivant →

Qu'est-ce que l'IA émotionnelle et est-elle autorisée en entreprise au Luxembourg ?

Réponse courte

L'IA émotionnelle désigne les systèmes d'intelligence artificielle capables de détecter, analyser ou interpréter les émotions humaines à partir de données biométriques, vocales ou faciales. En entreprise au Luxembourg, ces systèmes sont interdits par l'AI Act (article 5, paragraphe 1, point f) qui prohibe la reconnaissance des émotions sur le lieu de travail et dans les établissements d'enseignement. Cette interdiction est entrée en vigueur le 2 février 2025.

Les seules exceptions prévues concernent des raisons médicales ou de sécurité (détection de fatigue d'un pilote ou conducteur). En dehors de ces cas limitatifs, tout employeur luxembourgeois qui déploie un système de reconnaissance des émotions s'expose à des sanctions AI Act pouvant atteindre 35 millions d'euros ou 7 % du chiffre d'affaires mondial annuel.

Définition

L'IA émotionnelle (ou affective computing) regroupe les technologies qui utilisent l'intelligence artificielle pour identifier les états émotionnels humains. Ces systèmes analysent les expressions faciales, le ton de la voix, la posture corporelle, les données physiologiques (rythme cardiaque, conductance cutanée) ou les patterns linguistiques pour déduire les émotions ressenties.

L'AI Act définit un système de reconnaissance des émotions comme un système d'IA destiné à identifier ou déduire les émotions ou intentions de personnes physiques sur la base de leurs données biométriques. Cette définition large couvre toutes les technologies d'analyse émotionnelle, quelle que soit la modalité utilisée.

Conditions d’exercice

L'interdiction de l'IA émotionnelle en entreprise est encadrée par l'AI Act avec des exceptions très limitées.

Critère Détail
Interdiction générale AI Act, article 5, paragraphe 1, point f : interdiction des systèmes de reconnaissance des émotions sur le lieu de travail et dans les établissements d'enseignement
Date d'entrée en vigueur 2 février 2025 : application immédiate des interdictions de pratiques à risque inacceptable
Technologies couvertes Analyse d'expressions faciales ; analyse du ton vocal ; analyse de la posture ; analyse de données physiologiques ; sentiment analysis par biométrie
Exceptions limitatives Raisons médicales : détection de la fatigue ou de la douleur pour la sécurité du salarié ; raisons de sécurité : détection de fatigue dans des métiers critiques (transport, industrie à risque)
Sanctions Jusqu'à 35 millions d'euros ou 7 % du chiffre d'affaires mondial annuel (le montant le plus élevé)
Technologies non couvertes par l'interdiction Enquêtes de satisfaction anonymes ; questionnaires de bien-être déclaratifs ; analyse de données agrégées sans biométrie

Modalités pratiques

La mise en conformité avec l'interdiction de l'IA émotionnelle nécessite un audit des outils existants.

Étape Détail
Inventaire des outils Identifier tous les outils d'IA utilisant des données biométriques ; vérifier si des fonctionnalités de reconnaissance des émotions sont intégrées (même en option)
Désactivation immédiate Désactiver toute fonctionnalité de reconnaissance des émotions dans les outils existants ; documenter la désactivation ; informer le fournisseur
Audit des fournisseurs Vérifier les spécifications techniques des outils d'IA ; exiger une déclaration de conformité à l'AI Act ; insérer des clauses contractuelles d'interdiction
Alternatives conformes Utiliser des enquêtes déclaratives anonymes ; déployer des outils d'analyse de données agrégées ; recourir au médecin du travail pour l'évaluation individuelle
Information interne Informer les salariés et la délégation du personnel de l'interdiction ; former les managers aux limites des technologies autorisées

Pratiques et recommandations

Auditer immédiatement tous les outils d'IA déployés pour identifier les fonctionnalités de reconnaissance des émotions, y compris celles intégrées par défaut dans des plateformes de visioconférence ou de collaboration.

Exiger des fournisseurs d'outils d'IA une attestation de conformité à l'article 5 de l'AI Act, en vérifiant que les fonctionnalités de reconnaissance des émotions sont absentes ou désactivables de manière irréversible.

Privilégier des méthodes déclaratives et anonymes pour évaluer le bien-être des salariés, telles que les enquêtes de satisfaction, les entretiens individuels volontaires ou les baromètres sociaux collectifs.

Documenter la désactivation de toute fonctionnalité de reconnaissance des émotions et conserver les preuves de mise en conformité pour répondre aux contrôles éventuels.

Sensibiliser les équipes RH et les managers à la distinction entre les outils d'analyse émotionnelle interdits et les outils d'évaluation du bien-être conformes, en fournissant des exemples concrets de pratiques autorisées et prohibées.

Cadre juridique

Référence Objet
AI Act (UE 2024/1689) - Article 5, § 1, point f Interdiction des systèmes de reconnaissance des émotions sur le lieu de travail
AI Act - Article 99 Sanctions : amendes jusqu'à 35 millions d'euros ou 7 % du CA mondial
RGPD - Article 9 Traitement des données biométriques : catégorie spéciale soumise à des conditions strictes
RGPD - Article 35 AIPD obligatoire pour les traitements de données biométriques
Art. L.261-1 Encadrement du traitement des données personnelles des salariés
Art. L.312-1 Obligation de sécurité et de santé de l'employeur
Art. L.414-1 Consultation de la délégation du personnel

Note

L'interdiction de l'IA émotionnelle en entreprise est l'une des mesures les plus strictes de l'AI Act, applicable depuis février 2025. Les employeurs luxembourgeois doivent être particulièrement vigilants car certains outils de visioconférence ou de collaboration intègrent des fonctionnalités de reconnaissance des émotions par défaut. La responsabilité de la conformité incombe au déployeur, c'est-à-dire à l'employeur qui utilise le système.

Pixie vous propose aussi...