Un chatbot d'IA doit-il obligatoirement se présenter comme non humain au Luxembourg ?
Réponse courte
L'AI Act impose que toute personne interagissant avec un système d'IA soit informée qu'elle ne communique pas avec un humain, sauf si cela est évident au vu des circonstances. Un chatbot d'IA déployé en entreprise au Luxembourg doit donc se présenter comme un système automatisé dès le début de l'interaction. Cette obligation de transparence s'applique à tous les chatbots, quel que soit leur niveau de sophistication.
Le non-respect de cette obligation peut entraîner des sanctions AI Act pouvant atteindre 15 millions d'euros ou 3 % du chiffre d'affaires mondial. Le RGPD complète cette exigence en imposant l'information sur l'existence d'un traitement automatisé des données personnelles. L'employeur qui déploie un chatbot interne ou externe doit s'assurer que la nature artificielle du système est clairement communiquée.
Définition
Un chatbot d'IA est un programme informatique utilisant l'intelligence artificielle pour simuler une conversation en langage naturel avec un utilisateur humain. Ces systèmes peuvent être déployés en interne (assistance RH, support IT, FAQ salariés) ou en externe (service client, prospection commerciale, support technique).
L'obligation d'identification des chatbots comme non humains est une disposition centrale de l'AI Act (article 50) qui vise à protéger les utilisateurs contre la tromperie et à garantir un consentement éclairé dans les interactions automatisées. Cette obligation s'inscrit dans le cadre plus large de la réglementation IA.
Conditions d’exercice
L'obligation d'identification d'un chatbot comme non humain repose sur des exigences juridiques précises.
| Critère | Détail |
|---|---|
| AI Act - Article 50 | Information obligatoire de toute personne interagissant avec un système d'IA conçu pour communiquer directement avec des personnes |
| Exception contextuelle | L'information n'est pas requise si la nature artificielle est évidente au vu des circonstances et du contexte d'utilisation |
| Moment de l'information | Dès le début de l'interaction, avant tout échange de données personnelles |
| Forme de l'information | Message clair, visible, en langage compréhensible ; indication permanente dans l'interface |
| RGPD - Transparence | Information complémentaire sur les données collectées, les finalités, la durée de conservation (articles 13 et 14) |
| Chatbot interne | Obligation identique pour les chatbots destinés aux salariés (assistance RH, support IT) |
| Chatbot externe | Obligation renforcée pour les chatbots en contact avec les clients, prospects et partenaires |
Modalités pratiques
La mise en conformité d'un chatbot avec l'obligation d'identification suit un processus technique et juridique.
| Étape | Détail |
|---|---|
| Message d'accueil | Intégrer une mention explicite dès le premier message : "Je suis un assistant virtuel alimenté par l'intelligence artificielle" |
| Indicateur visuel | Badge ou pictogramme permanent identifiant le caractère non humain du chatbot dans l'interface |
| Transfert humain | Proposer systématiquement la possibilité de basculer vers un interlocuteur humain, avec indication du délai |
| Politique de confidentialité | Lien vers la politique de protection des données directement dans l'interface du chatbot |
| Limites clairement indiquées | Information sur les limites du chatbot et les sujets pour lesquels un humain est nécessaire |
| Audit périodique | Vérification régulière que les mentions d'identification restent visibles et conformes après les mises à jour |
Pratiques et recommandations
Nommer le chatbot de manière à indiquer sa nature artificielle (éviter les prénoms humains réalistes qui pourraient induire en erreur), en utilisant des noms évoquant clairement un assistant virtuel.
Maintenir l'indicateur de nature artificielle tout au long de la conversation, et pas uniquement dans le message d'accueil, pour garantir une transparence permanente.
Proposer un accès rapide à un interlocuteur humain lorsque le chatbot ne peut pas répondre ou lorsque la demande concerne des sujets sensibles (réclamation, données personnelles, situation de crise).
Tester régulièrement le chatbot avec des utilisateurs pour vérifier que la nature artificielle est effectivement perçue et comprise, en particulier par les publics vulnérables.
Conserver les logs des conversations dans le respect du RGPD (durée de conservation limitée, droit d'accès, droit de suppression) et documenter les incidents signalés.
Cadre juridique
| Référence | Objet |
|---|---|
| AI Act (UE 2024/1689) - Article 50 | Obligation d'information des personnes interagissant avec un système d'IA |
| AI Act - Considérant 132 | Précisions sur l'obligation de transparence pour les systèmes d'IA conversationnels |
| RGPD - Articles 13 et 14 | Obligations d'information des personnes concernées lors de la collecte de données |
| RGPD - Article 5 | Principe de transparence dans le traitement des données personnelles |
| RGPD - Article 22 | Droit de ne pas être soumis à une décision fondée exclusivement sur un traitement automatisé |
| CNPD | Autorité de contrôle compétente au Luxembourg |
Note
L'obligation d'identification des chatbots comme non humains est une exigence simple à mettre en oeuvre techniquement mais essentielle pour la conformité à l'AI Act. Les entreprises luxembourgeoises déployant des chatbots doivent intégrer cette obligation dès la conception de l'outil et la maintenir tout au long de son cycle de vie.