Qu'est-ce qu'un système d'IA interdit par l'AI Act et quels exemples concernent le monde du travail ?
Réponse courte
L'AI Act interdit les systèmes d'IA présentant un risque inacceptable pour les droits fondamentaux. Dans le monde du travail, sont notamment interdits le scoring social des salariés, la manipulation subliminale des comportements, l'exploitation des vulnérabilités des travailleurs et la reconnaissance émotionnelle sur le lieu de travail (sauf pour des raisons médicales ou de sécurité).
Ces interdictions sont entrées en vigueur le 2 février 2025 et s'appliquent immédiatement à toutes les entreprises luxembourgeoises. Les sanctions peuvent atteindre 35 millions d'euros ou 7 % du chiffre d'affaires annuel mondial. L'employeur qui déploie un système interdit s'expose à des poursuites administratives par la CNPD et à des recours des salariés devant le tribunal du travail.
Définition
Un système d'IA interdit est un système dont la mise sur le marché, la mise en service ou l'utilisation est prohibée par l'article 5 de l'AI Act en raison du risque inacceptable qu'il fait peser sur les droits fondamentaux. Cette catégorie constitue le niveau le plus élevé de la pyramide des risques de l'AI Act.
Dans le contexte de l'emploi, ces interdictions visent à protéger la dignité, la vie privée et l'autonomie des travailleurs contre des usages particulièrement intrusifs ou manipulatoires de l'intelligence artificielle. Elles s'appliquent indépendamment du secteur d'activité ou de la taille de l'entreprise.
Conditions d’exercice
Les interdictions de l'AI Act applicables au monde du travail couvrent plusieurs catégories de systèmes.
| Critère | Détail |
|---|---|
| Scoring social | Interdiction de noter ou classer les salariés sur la base de leur comportement social ou de caractéristiques personnelles, conduisant à un traitement défavorable disproportionné |
| Manipulation subliminale | Interdiction des techniques subliminales influençant le comportement des salariés de manière à contourner leur volonté et causer un préjudice |
| Exploitation des vulnérabilités | Interdiction d'exploiter l'âge, le handicap, la situation sociale ou économique d'un salarié pour influencer son comportement de manière préjudiciable |
| Reconnaissance émotionnelle | Interdiction sur le lieu de travail, sauf motifs médicaux ou de sécurité dûment justifiés |
| Catégorisation biométrique | Interdiction de déduire des caractéristiques sensibles (opinions politiques, orientation sexuelle, convictions religieuses) à partir de données biométriques |
| Entrée en vigueur | 2 février 2025 : application immédiate des interdictions |
| Sanctions | Jusqu'à 35 millions d'euros ou 7 % du chiffre d'affaires annuel mondial (le montant le plus élevé) |
Modalités pratiques
L'employeur doit vérifier qu'aucun de ses systèmes d'IA ne relève des pratiques interdites.
| Étape | Détail |
|---|---|
| Audit initial | Recenser tous les outils d'IA en usage et vérifier qu'aucun ne correspond aux pratiques interdites par l'article 5 de l'AI Act |
| Vérification des fournisseurs | Exiger des garanties contractuelles attestant que les solutions fournies ne comportent pas de fonctionnalités interdites |
| Cas de la reconnaissance émotionnelle | Vérifier si des outils analysent les expressions faciales, le ton de la voix ou le langage corporel des salariés ; les désactiver sauf exception médicale ou sécurité |
| Signalement interne | Mettre en place un canal permettant aux salariés de signaler un système d'IA suspecté d'être interdit |
| Mise en conformité immédiate | Retirer et cesser tout système identifié comme interdit ; documenter les actions correctives |
| Information | Informer la délégation du personnel et les salariés des interdictions et des mesures prises |
Pratiques et recommandations
Auditer immédiatement tous les systèmes d'IA en place pour identifier d'éventuels outils relevant des pratiques interdites, en portant une attention particulière aux solutions de surveillance, de scoring et d'analyse émotionnelle.
Vérifier que les outils d'évaluation de la performance n'intègrent pas de mécanismes de scoring social, même indirects, comme l'agrégation de données comportementales produisant un score global déterminant l'accès à des avantages.
Former les managers et les équipes RH aux pratiques interdites pour qu'ils puissent identifier un usage problématique avant qu'il ne soit déployé.
Documenter les résultats de l'audit et les mesures correctives prises pour démontrer la bonne foi de l'employeur en cas de contrôle de la CNPD.
Intégrer une clause de vérification des interdictions dans tout processus d'achat ou de déploiement d'un nouvel outil d'IA.
Cadre juridique
| Référence | Objet |
|---|---|
| AI Act (UE 2024/1689) - Article 5 | Liste des pratiques d'IA interdites |
| AI Act - Article 99 | Sanctions : amendes administratives pour utilisation de systèmes interdits |
| AI Act - Considérant 29 et suivants | Justification des interdictions et protection des droits fondamentaux |
| Charte des droits fondamentaux de l'UE | Dignité humaine, vie privée, non-discrimination |
| RGPD - Article 9 | Traitement des données sensibles (biométriques, santé, opinions) |
| Art. L.251-1 | Interdiction de toute discrimination directe ou indirecte |
| Art. L.261-1 | Encadrement de la surveillance des salariés par traitement de données |
Note
Les interdictions de l'AI Act sont d'application immédiate depuis le 2 février 2025 et ne prévoient aucune période de transition. Tout employeur luxembourgeois utilisant un système d'IA doit vérifier sans délai qu'aucun de ses outils ne relève des pratiques interdites, sous peine de sanctions financières parmi les plus lourdes du règlement.