← Article précédent
Télécharger en PDF
Article suivant →

L'entreprise peut-elle utiliser l'IA pour anticiper les risques de départ volontaire ?

Réponse courte

L'utilisation de l'IA pour détecter les risques de départ volontaire des salariés est possible au Luxembourg, mais strictement encadrée. L'article L.261-1 impose une information préalable de la délégation du personnel ou de l'ITM avant tout traitement de données à des fins de surveillance. Le RGPD interdit toute décision fondée exclusivement sur un traitement automatisé sans intervention humaine.

À partir d'août 2026, l'AI Act classe les systèmes d'IA de gestion RH comme systèmes à haut risque nécessitant analyse d'impact et supervision humaine renforcée. Les outils prédictifs doivent respecter la minimisation des données et interdire tout usage de données biométriques émotionnelles, prohibé depuis février 2025. L'approche doit être prudente et concertée.

Définition

L'IA prédictive de turnover désigne les algorithmes analysant des données professionnelles pour identifier les salariés présentant un risque de démission. Ces outils exploitent des données internes (ancienneté, formation, mobilité, performance, absentéisme) et externes (tendances sectorielles, marché de l'emploi).

Au Luxembourg, ces traitements sont soumis à une triple réglementation : le Code du travail (surveillance), le RGPD (protection des données) et l'AI Act (encadrement des IA à haut risque).

Conditions d’exercice

L'utilisation de l'IA prédictive de turnover au Luxembourg doit respecter cinq cadres d'obligations cumulatifs.

Critère Détail
Art. L.261-1 - Information Information de la délégation du personnel ou de l'ITM ; description des finalités et moyens ; durée de conservation et garanties ; délai de 15 jours pour saisine CNPD
RGPD - Conformité Base légale : intérêt légitime démontrable ; minimisation des données ; transparence et information complète ; intervention humaine obligatoire (article 22) ; AIPD et DPO
AI Act (août 2026) Classification en système à haut risque ; analyse d'impact IA complémentaire ; documentation technique (traçabilité, robustesse, cybersécurité) ; supervision humaine et formation ; enregistrement CNPD
Interdictions absolues Analyse émotionnelle via données biométriques ; décisions RH exclusivement automatisées ; profilage discriminatoire ; algorithmes opaques non explicables
Consultation sociale Information et consultation obligatoires de la délégation du personnel avant introduction du système

Modalités pratiques

Le déploiement d'un outil d'IA prédictive de turnover suit un processus en sept étapes.

Étape Détail
Préparation Définir la finalité exacte (prévention du turnover, amélioration QVT) ; vérifier la conformité du fournisseur IA
Analyses d'impact Réaliser une AIPD (RGPD) et une analyse IA (AI Act) ; documenter les mesures de mitigation des risques
Information et consultation Informer la délégation du personnel ou l'ITM ; respecter le délai de 15 jours ; consulter sur l'impact social
Information des salariés Expliquer la finalité, la logique et les droits individuels (accès, rectification, opposition) ; rédiger une charte IA interne
Formation et supervision Former les RH et managers à l'usage responsable ; garantir une intervention humaine constante
Déploiement Démarrer par un projet pilote suivi d'audits réguliers ; documenter tout incident ou ajustement
Gouvernance continue Réaliser des audits périodiques ; mettre à jour la documentation ; limiter la conservation des données

Pratiques et recommandations

Assurer une transparence absolue envers les salariés et leurs représentants sur l'existence et le fonctionnement du système prédictif.

Exiger une validation managériale obligatoire avant toute action basée sur une prédiction de l'IA, en ne prenant jamais de décision défavorable sur la seule base algorithmique.

Contrôler régulièrement l'absence de discrimination dans les variables utilisées par l'algorithme et dans les résultats produits.

Limiter strictement les données collectées et les durées de conservation, en utilisant l'IA pour améliorer la qualité de vie au travail et non pour surveiller les salariés.

Maintenir un dialogue social continu avec la délégation du personnel tout au long du cycle de vie du système.

Cadre juridique

Référence Objet
Art. L.261-1 à L.261-2 Traitement de données à des fins de surveillance ; sanctions pénales
Art. L.414-1 et L.414-9 Consultation de la délégation du personnel
RGPD - Articles 6, 9, 22, 35 Conditions de licéité, données sensibles, décisions automatisées, analyse d'impact
AI Act (UE 2024/1689) - Articles 4, 5, Annexe III Formation, pratiques interdites, classification haut risque
CNPD Contrôle RGPD et AI Act
ITM Contrôle du travail et des droits fondamentaux

Note

L'usage de l'IA pour la détection du turnover est une innovation sensible. Toute dérive vers la surveillance ou la discrimination est sévèrement sanctionnée. L'approche luxembourgeoise repose sur la transparence, la concertation et l'intervention humaine, sous réserve de l'application progressive de l'AI Act.

Pixie vous propose aussi...