← Article précédent
Télécharger en PDF
Article suivant →

Qu'est-ce qu'un système d'IA interdit par l'AI Act et quels exemples concernent le monde du travail ?

Réponse courte

L'AI Act interdit les systèmes d'IA présentant un risque inacceptable pour les droits fondamentaux. Dans le monde du travail, sont notamment interdits le scoring social des salariés, la manipulation subliminale des comportements, l'exploitation des vulnérabilités des travailleurs et la reconnaissance émotionnelle sur le lieu de travail (sauf pour des raisons médicales ou de sécurité).

Ces interdictions sont entrées en vigueur le 2 février 2025 et s'appliquent immédiatement à toutes les entreprises luxembourgeoises. Les sanctions peuvent atteindre 35 millions d'euros ou 7 % du chiffre d'affaires annuel mondial. L'employeur qui déploie un système interdit s'expose à des poursuites administratives par la CNPD et à des recours des salariés devant le tribunal du travail.

Définition

Un système d'IA interdit est un système dont la mise sur le marché, la mise en service ou l'utilisation est prohibée par l'article 5 de l'AI Act en raison du risque inacceptable qu'il fait peser sur les droits fondamentaux. Cette catégorie constitue le niveau le plus élevé de la pyramide des risques de l'AI Act.

Dans le contexte de l'emploi, ces interdictions visent à protéger la dignité, la vie privée et l'autonomie des travailleurs contre des usages particulièrement intrusifs ou manipulatoires de l'intelligence artificielle. Elles s'appliquent indépendamment du secteur d'activité ou de la taille de l'entreprise.

Conditions d’exercice

Les interdictions de l'AI Act applicables au monde du travail couvrent plusieurs catégories de systèmes.

Critère Détail
Scoring social Interdiction de noter ou classer les salariés sur la base de leur comportement social ou de caractéristiques personnelles, conduisant à un traitement défavorable disproportionné
Manipulation subliminale Interdiction des techniques subliminales influençant le comportement des salariés de manière à contourner leur volonté et causer un préjudice
Exploitation des vulnérabilités Interdiction d'exploiter l'âge, le handicap, la situation sociale ou économique d'un salarié pour influencer son comportement de manière préjudiciable
Reconnaissance émotionnelle Interdiction sur le lieu de travail, sauf motifs médicaux ou de sécurité dûment justifiés
Catégorisation biométrique Interdiction de déduire des caractéristiques sensibles (opinions politiques, orientation sexuelle, convictions religieuses) à partir de données biométriques
Entrée en vigueur 2 février 2025 : application immédiate des interdictions
Sanctions Jusqu'à 35 millions d'euros ou 7 % du chiffre d'affaires annuel mondial (le montant le plus élevé)

Modalités pratiques

L'employeur doit vérifier qu'aucun de ses systèmes d'IA ne relève des pratiques interdites.

Étape Détail
Audit initial Recenser tous les outils d'IA en usage et vérifier qu'aucun ne correspond aux pratiques interdites par l'article 5 de l'AI Act
Vérification des fournisseurs Exiger des garanties contractuelles attestant que les solutions fournies ne comportent pas de fonctionnalités interdites
Cas de la reconnaissance émotionnelle Vérifier si des outils analysent les expressions faciales, le ton de la voix ou le langage corporel des salariés ; les désactiver sauf exception médicale ou sécurité
Signalement interne Mettre en place un canal permettant aux salariés de signaler un système d'IA suspecté d'être interdit
Mise en conformité immédiate Retirer et cesser tout système identifié comme interdit ; documenter les actions correctives
Information Informer la délégation du personnel et les salariés des interdictions et des mesures prises

Pratiques et recommandations

Auditer immédiatement tous les systèmes d'IA en place pour identifier d'éventuels outils relevant des pratiques interdites, en portant une attention particulière aux solutions de surveillance, de scoring et d'analyse émotionnelle.

Vérifier que les outils d'évaluation de la performance n'intègrent pas de mécanismes de scoring social, même indirects, comme l'agrégation de données comportementales produisant un score global déterminant l'accès à des avantages.

Former les managers et les équipes RH aux pratiques interdites pour qu'ils puissent identifier un usage problématique avant qu'il ne soit déployé.

Documenter les résultats de l'audit et les mesures correctives prises pour démontrer la bonne foi de l'employeur en cas de contrôle de la CNPD.

Intégrer une clause de vérification des interdictions dans tout processus d'achat ou de déploiement d'un nouvel outil d'IA.

Cadre juridique

Référence Objet
AI Act (UE 2024/1689) - Article 5 Liste des pratiques d'IA interdites
AI Act - Article 99 Sanctions : amendes administratives pour utilisation de systèmes interdits
AI Act - Considérant 29 et suivants Justification des interdictions et protection des droits fondamentaux
Charte des droits fondamentaux de l'UE Dignité humaine, vie privée, non-discrimination
RGPD - Article 9 Traitement des données sensibles (biométriques, santé, opinions)
Art. L.251-1 Interdiction de toute discrimination directe ou indirecte
Art. L.261-1 Encadrement de la surveillance des salariés par traitement de données

Note

Les interdictions de l'AI Act sont d'application immédiate depuis le 2 février 2025 et ne prévoient aucune période de transition. Tout employeur luxembourgeois utilisant un système d'IA doit vérifier sans délai qu'aucun de ses outils ne relève des pratiques interdites, sous peine de sanctions financières parmi les plus lourdes du règlement.

Pixie vous propose aussi...