L'entreprise peut-elle utiliser l'IA pour anticiper les risques de départ volontaire ?
Réponse courte
L'utilisation de l'IA pour détecter les risques de départ volontaire des salariés est possible au Luxembourg, mais strictement encadrée. L'article L.261-1 impose une information préalable de la délégation du personnel ou de l'ITM avant tout traitement de données à des fins de surveillance. Le RGPD interdit toute décision fondée exclusivement sur un traitement automatisé sans intervention humaine.
À partir d'août 2026, l'AI Act classe les systèmes d'IA de gestion RH comme systèmes à haut risque nécessitant analyse d'impact et supervision humaine renforcée. Les outils prédictifs doivent respecter la minimisation des données et interdire tout usage de données biométriques émotionnelles, prohibé depuis février 2025. L'approche doit être prudente et concertée.
Définition
L'IA prédictive de turnover désigne les algorithmes analysant des données professionnelles pour identifier les salariés présentant un risque de démission. Ces outils exploitent des données internes (ancienneté, formation, mobilité, performance, absentéisme) et externes (tendances sectorielles, marché de l'emploi).
Au Luxembourg, ces traitements sont soumis à une triple réglementation : le Code du travail (surveillance), le RGPD (protection des données) et l'AI Act (encadrement des IA à haut risque).
Conditions d’exercice
L'utilisation de l'IA prédictive de turnover au Luxembourg doit respecter cinq cadres d'obligations cumulatifs.
| Critère | Détail |
|---|---|
| Art. L.261-1 - Information | Information de la délégation du personnel ou de l'ITM ; description des finalités et moyens ; durée de conservation et garanties ; délai de 15 jours pour saisine CNPD |
| RGPD - Conformité | Base légale : intérêt légitime démontrable ; minimisation des données ; transparence et information complète ; intervention humaine obligatoire (article 22) ; AIPD et DPO |
| AI Act (août 2026) | Classification en système à haut risque ; analyse d'impact IA complémentaire ; documentation technique (traçabilité, robustesse, cybersécurité) ; supervision humaine et formation ; enregistrement CNPD |
| Interdictions absolues | Analyse émotionnelle via données biométriques ; décisions RH exclusivement automatisées ; profilage discriminatoire ; algorithmes opaques non explicables |
| Consultation sociale | Information et consultation obligatoires de la délégation du personnel avant introduction du système |
Modalités pratiques
Le déploiement d'un outil d'IA prédictive de turnover suit un processus en sept étapes.
| Étape | Détail |
|---|---|
| Préparation | Définir la finalité exacte (prévention du turnover, amélioration QVT) ; vérifier la conformité du fournisseur IA |
| Analyses d'impact | Réaliser une AIPD (RGPD) et une analyse IA (AI Act) ; documenter les mesures de mitigation des risques |
| Information et consultation | Informer la délégation du personnel ou l'ITM ; respecter le délai de 15 jours ; consulter sur l'impact social |
| Information des salariés | Expliquer la finalité, la logique et les droits individuels (accès, rectification, opposition) ; rédiger une charte IA interne |
| Formation et supervision | Former les RH et managers à l'usage responsable ; garantir une intervention humaine constante |
| Déploiement | Démarrer par un projet pilote suivi d'audits réguliers ; documenter tout incident ou ajustement |
| Gouvernance continue | Réaliser des audits périodiques ; mettre à jour la documentation ; limiter la conservation des données |
Pratiques et recommandations
Assurer une transparence absolue envers les salariés et leurs représentants sur l'existence et le fonctionnement du système prédictif.
Exiger une validation managériale obligatoire avant toute action basée sur une prédiction de l'IA, en ne prenant jamais de décision défavorable sur la seule base algorithmique.
Contrôler régulièrement l'absence de discrimination dans les variables utilisées par l'algorithme et dans les résultats produits.
Limiter strictement les données collectées et les durées de conservation, en utilisant l'IA pour améliorer la qualité de vie au travail et non pour surveiller les salariés.
Maintenir un dialogue social continu avec la délégation du personnel tout au long du cycle de vie du système.
Cadre juridique
| Référence | Objet |
|---|---|
| Art. L.261-1 à L.261-2 | Traitement de données à des fins de surveillance ; sanctions pénales |
| Art. L.414-1 et L.414-9 | Consultation de la délégation du personnel |
| RGPD - Articles 6, 9, 22, 35 | Conditions de licéité, données sensibles, décisions automatisées, analyse d'impact |
| AI Act (UE 2024/1689) - Articles 4, 5, Annexe III | Formation, pratiques interdites, classification haut risque |
| CNPD | Contrôle RGPD et AI Act |
| ITM | Contrôle du travail et des droits fondamentaux |
Note
L'usage de l'IA pour la détection du turnover est une innovation sensible. Toute dérive vers la surveillance ou la discrimination est sévèrement sanctionnée. L'approche luxembourgeoise repose sur la transparence, la concertation et l'intervention humaine, sous réserve de l'application progressive de l'AI Act.