Skip to main content
   

ACTUALITÉS

La CGFP appelle à faire preuve de responsabilité sociale dans l’usage de l’intelligence artificielle

12.03.2026

La CGFP appelle à faire preuve de responsabilité sociale dans l’usage de l’intelligence artificielle
Ce jeudi, des représentants du gouvernement, des trois syndicats représentatifs sur le plan national – dont la CGFP –, des chambres professionnelles et des organisations patronales se sont réunis au château de Senningen pour une table ronde sur l'IA. Ce format trilatéral a constitué une première occasion de mener des discussions structurées sur la manière dont le Luxembourg entend réagir aux changements profonds engendrés par les progrès rapides de l'intelligence artificielle.

La CGFP salue l'initiative d'aborder ce sujet dans le cadre d'un dialogue avec les partenaires sociaux. Elle s'étonne toutefois que le Luxembourg ait déjà conclu l'année dernière un partenariat avec l'entreprise Mistral AI pour moderniser le service public grâce à l'IA. Une implication précoce de la CGFP aurait permis d'apporter son savoir-faire technique et son expérience pratique. La CGFP considère qu'il s'agit d'une occasion manquée et souligne qu'un véritable dialogue social reste encore à établir. 

Des lignes directrices légales claires

La CGFP milite depuis longtemps en faveur de règles légales précises concernant l'utilisation de l'IA au sein de la fonction publique. Cette approche permet de limiter les risques pour les agents publics, notamment en ce qui concerne d'éventuelles procédures disciplinaires. En l'absence de règles claires, les concernés pourraient être sanctionnés s'ils utilisent des applications d'IA dans des domaines non autorisés. 

La CGFP estime qu'il est essentiel de mettre en place un cadre éthique permettant à l'être humain de conserver le contrôle sur l'IA. Les décisions ayant des conséquences juridiques ou sociales doivent continuer à être prises par des êtres humains au lieu d’être confiées à des systèmes algorithmiques opaques.

Une formation continue renforcée

Afin que le changement technologique soit socialement compatible, une formation continue ciblée revêt une importance capitale. L'IA étant de plus en plus présente dans de nombreuses professions, les agents publics doivent avoir la possibilité d'acquérir les compétences nécessaires. Personne ne doit être laissé pour compte par la transformation numérique. La CGFP revendique donc des programmes de formation continue pratiques, permettant aux agents publics d’utiliser l'IA de manière sûre et efficace dans l'intérêt des citoyennes et citoyens. L'État a le devoir d'offrir des perspectives professionnelles à tous, quel que soit leur niveau d'éducation. 

L'IA ne doit pas servir à contrôler

L'un des principes fondamentaux de la CGFP est que l'IA ne doit pas être utilisée pour évaluer les performances individuelles ni pour exercer un contrôle secret sur les agents publics. Une telle utilisation saperait la confiance. La loi doit donc stipuler clairement que les performances professionnelles ne peuvent être ni surveillées ni évaluées à l’insu des agents publics.

Débat sur Introduction d'une taxe sur l'IA

La transformation numérique ne doit pas se faire au détriment des travailleurs. Les entreprises qui tirent massivement profit de l'IA doivent apporter leur juste contribution, afin que les avantages soient répartis équitablement. La CGFP appelle à une réflexion sur une « taxe IA » pour les entreprises qui bénéficient largement de cette technologie. Par ailleurs, la CGFP plaide pour que les entreprises qui procèdent à des licenciements à la suite de l'automatisation soient mises à contribution. Ainsi, l'innovation technologique peut aller de pair avec la responsabilité sociale. 

La protection des données est indispensable

Les systèmes d'IA ne doivent pas porter atteinte à la vie privée des citoyennes et citoyens. Le service public, en particulier, traite des informations hautement sensibles dont la protection doit être une priorité absolue. La CGFP demande que des règles claires soient établies pour déterminer qui est autorisé à collecter, stocker ou évaluer ces données. En outre, chaque personne doit conserver le droit de décider elle-même de l'utilisation de ses données. 

D'une manière générale, les discussions trilatérales constituent un pas dans la bonne direction. Les futurs groupes de travail devront approfondir les détails. Compte tenu de la situation géopolitique incertaine – des crises énergétiques potentielles à la hausse de l'inflation –, la question se pose également de savoir si un format tripartite classique ne serait pas nécessaire pour élaborer ensemble des stratégies visant à protéger la sécurité sociale et le pouvoir d'achat.