L'intelligence artificielle pour les travailleurs, pas seulement pour le profit : Garantir des emplois de qualité à l'ère numérique

L'intelligence artificielle pour les travailleurs, pas seulement pour le profit : Garantir des emplois de qualité à l'ère numérique
Adopté lors de la réunion du Comité exécutif du 04-05 mars 2025


L'intelligence artificielle (IA) est en train de remodeler le monde du travail, modifiant profondément la structure des emplois, la reconnaissance des compétences et les conditions de travail. L'IA n'est ni bonne ni mauvaise pour les travailleurs, tout dépend de la manière dont elle est utilisée et par qui elle est contrôlée. Une telle technologie, même si elle augmente la productivité, n'améliore pas nécessairement le bien-être de la majorité des travailleurs. Si l'IA promet des gains d'efficacité et a le potentiel d'améliorer la qualité du travail, elle menace également la valeur du travail humain, creuse les inégalités et crée des défis importants en matière de droits fondamentaux, de salaires, de santé au travail, de sécurité et d'équité. Les effets de l'IA dépendent des choix politiques faits autour d'elle : les législateurs pour encadrer la technologie afin qu'elle serve l'intérêt général, les syndicats pour protéger les conditions de travail, les investissements publics dans l'éducation et les investissements publics et privés dans les infrastructures, l'application de règles de concurrence loyale et la redistribution des gains par l'impôt, comme l'a bien expliqué le prix Nobel d'économie Daron Acemoglu.
Le document de la CES présenté et discuté lors de la discussion stratégique de la CES sur l'IA au travail en décembre 2024 a confirmé les demandes de la CES mais a également identifié les nouveaux aspects et les principaux défis suivants :


▪    Impact sur les emplois et les salaires : L'automatisation induite par l'IA et l'IA générative peuvent provoquer, en l'absence de réglementation appropriée, des déplacements d'emplois, des déqualifications et des emplois précaires, menaçant les salaires et l'autonomie professionnelle. La Commission européenne doit introduire des protections pour garantir des conditions de travail décentes.
▪    Discrimination induite par l'IA : Si elle n'est pas mise en œuvre de manière responsable, l'IA peut renforcer les préjugés sociétaux et aggraver les inégalités en matière d'embauche, d'accès à la formation, de promotion et de licenciement. Le manque de compréhension du contexte et d'empathie limite la capacité des systèmes à gérer les interactions humaines sensibles. Il est essentiel d'appliquer rigoureusement les lois antidiscriminatoires.


▪    Protection des données et surveillance : La surveillance du lieu de travail par l'IA soulève des préoccupations en matière de protection de la vie privée. Malgré le GDPR, des lacunes subsistent en matière d'application. Les travailleurs et leurs représentants doivent pouvoir contrôler la collecte et l'utilisation des données.


▪    L'IA éthique et les droits de l'homme : L'IA doit respecter des normes éthiques strictes pour garantir la transparence et la responsabilité. La loi sur l'IA ne prévoit pas de protections spécifiques au lieu de travail, ce qui doit être pris en compte pour préserver les droits des travailleurs.
Confédération européenne des syndicats| Esther Lynch, secrétaire générale 


▪    Formation et maîtrise de l'IA : Les travailleurs ont besoin d'une formation à l'IA tout au long de leur vie. Les employeurs doivent être légalement tenus de fournir des formations appropriées et d'impliquer les syndicats dans des formations conjointes visant à améliorer les compétences.


▪    Innovation dirigée par les travailleurs : La voix et l'expérience des travailleurs doivent être intégrées à tous les stades de la chaîne de valeur de l'IA. Cela nécessite non seulement une innovation collaborative sur le lieu de travail, mais aussi une influence des travailleurs au stade de la recherche et du développement et un siège à la table des discussions sur la stratégie industrielle. Les syndicats doivent être habilités à négocier des stratégies de déploiement de l'IA qui améliorent la qualité de l'emploi et la productivité tout en garantissant l'équité, l'autonomie des travailleurs et la prise de décision collective.
La CES appelle les institutions européennes à prendre des mesures immédiates et décisives dans les domaines suivants afin de garantir que l'IA profite à tous :


1.    Une directive sur les systèmes algorithmiques sur le lieu de travail
La CES réitère son appel de 2022 en faveur d'une directive spécifique sur les systèmes algorithmiques au travail. La CES considère que le chapitre sur la gestion algorithmique de la directive sur les plateformes de travail constitue une base solide pour une directive plus large couvrant tous les lieux de travail, mais son champ d'application doit être clarifié pour garantir l'application d'une norme minimale à tous les travailleurs. En outre, cette directive doit garantir la surveillance humaine de tous les processus décisionnels basés sur l'IA, renforçant ainsi le principe du contrôle humain. Les travailleurs et leurs représentants doivent avoir le droit de contester et d'annuler les décisions de l'IA qui ont un impact sur leur emploi ou leur bien-être. Les employeurs doivent être tenus d'impliquer les syndicats et les représentants des travailleurs dans les décisions relatives à l'IA sur le lieu de travail et de garantir la possibilité de solutions négociées. La surveillance par l'IA doit être transparente et non intrusive, et permettre aux travailleurs et à leurs représentants d'accéder pleinement aux informations pertinentes afin de permettre une consultation sérieuse. L'IA ne doit pas traiter de données personnelles et psychologiques non liées au travail, et des garanties strictes doivent être mises en œuvre pour protéger la santé et la sécurité au travail.


2.    Responsabilité de l'IA
La CES condamne fermement l'annonce faite par la Commission européenne le 12 février dans son programme de travail 2025 de retirer la directive sur la responsabilité en matière d'IA, une décision qui laisse les travailleurs en danger face aux risques posés par l'intelligence artificielle sur le lieu de travail. En l'absence de règles claires en matière de responsabilité, les personnes touchées par des décisions fondées sur l'IA, qu'il s'agisse d'accidents du travail, de licenciements abusifs ou d'algorithmes d'embauche biaisés, pour n'en citer que quelques-uns, auront plus de difficultés à obtenir réparation. L'absence de réglementation claire risque également de faire peser la responsabilité potentielle sur les travailleurs qui exploitent les systèmes d'IA, plutôt que sur les entreprises qui développent et décident de leur mise en œuvre et de la gestion des risques. La directive sur la responsabilité en matière d'IA visait à établir la responsabilité des employeurs lorsque l'IA cause des dommages. Son retrait soulève des inquiétudes quant à la nécessité d'assurer un juste équilibre entre les intérêts des grandes entreprises technologiques et la protection des travailleurs.
La CES demande à la Commission de prendre au sérieux le principe de précaution, de reconsidérer sa décision et de respecter son devoir de protéger les travailleurs, et non de les abandonner aux politiques d'IA menées par les entreprises. La CES exige des règles contraignantes garantissant que les entreprises

doivent être tenus responsables des conséquences négatives de l'introduction et de l'utilisation de l'IA dans le cadre du travail. Les droits des travailleurs à un traitement équitable, à un travail décent et à la protection de la vie privée doivent être respectés, ce qui n'est pas négociable. Le travail n'est pas une marchandise.


3.    Réglementation des chaînes de valeur numériques mondiales
Les chaînes de valeur de l'IA reposent sur une préparation des données à forte intensité de main-d'œuvre, souvent externalisée dans de mauvaises conditions de travail dans les pays du Sud, mais aussi en Europe. Les travailleurs chargés de l'étiquetage des données et de la modération des contenus sont exposés à de graves conditions d'exploitation, notamment à de faibles salaires, à une surveillance excessive et à l'exposition à des contenus pénibles. De nombreux ensembles de données de formation à l'IA reposent sur une main-d'œuvre sous-payée ou informelle, ce qui exacerbe les inégalités. La CES demande aux institutions européennes de veiller à ce que la directive sur le devoir de diligence des entreprises en matière de développement durable (CS3D) et la directive sur les rapports de développement durable des entreprises (CSRD) maintiennent et renforcent la responsabilité des entreprises et, en particulier, ne réduisent pas la responsabilité civile prévue par la CS3D. Elle devrait garantir des normes de travail équitables dans le développement de l'IA, en empêchant l'exploitation et en garantissant un approvisionnement éthique de la main-d'œuvre liée à l'IA. De même, le traitement des données devrait toujours répondre aux normes fixées par la législation européenne, en ne permettant pas l'externalisation du traitement des données dans des juridictions où les normes sociales et de travail sont moins strictes.


4.    Protection du droit d'auteur et impact de l'IA sur le travail créatif
Les modèles d'IA s'appuient sur de grandes quantités de données professionnelles et personnelles, ce qui soulève des inquiétudes quant aux violations du droit d'auteur, en particulier dans les secteurs créatifs. La CES appelle les institutions européennes à mettre en place un système basé sur le consentement éclairé, la transparence et la juste rémunération des créateurs. Le renforcement de l'application du GDPR est nécessaire pour empêcher la reproduction non autorisée de l'image, de la voix et de la ressemblance des créateurs.
5.    Impact environnemental de l'IA


Les technologies d'IA nécessitent une utilisation importante d'énergie et de ressources naturelles, ce qui peut compromettre les progrès en matière de climat et mettre en péril les objectifs climatiques. La formation de grands modèles d'IA peut consommer autant d'électricité que l'alimentation de pays entiers, et les estimations montrent qu'un seul modèle d'IA peut générer des émissions de carbone équivalentes à celles de cinq voitures au cours de sa durée de vie. Il est essentiel de veiller à ce que cette demande croissante d'énergie soit satisfaite par de nouvelles sources d'énergie renouvelable afin de préserver la durabilité environnementale. Les centres de données consomment de grandes quantités d'eau pour le refroidissement, ce qui menace l'approvisionnement en eau dans des régions déjà confrontées à la pénurie. L'intelligence artificielle repose sur les puces, dont la production pourrait poser des problèmes en termes d'objectifs climatiques, en raison de la forte consommation d'énergie, des difficultés liées au recyclage des déchets et de l'utilisation intensive de l'eau. En outre, alors que l'UE met en œuvre des politiques visant à éliminer progressivement les combustibles fossiles, l'empreinte carbone croissante de l'IA pourrait neutraliser ces gains, rendant vaines les pertes d'emplois dans les industries à forte intensité de carbone. La CES appelle les institutions européennes à demander aux entreprises de rendre compte de l'empreinte environnementale de leur IA selon des critères de transparence obligatoires, à appliquer des normes de durabilité et à veiller à ce que l'adoption de l'IA ne sape pas ou n'annule pas les politiques climatiques existantes. Les entreprises qui utilisent l'IA doivent s'engager à réduire leur consommation d'énergie et à compenser les dommages causés à l'environnement.


6.    Lutter contre les monopoles de l'IA et garantir la souveraineté de l'Europe en matière d'IA
Le marché de l'IA est de plus en plus dominé par une poignée de grandes entreprises technologiques, principalement américaines et chinoises, ce qui pose des risques importants pour la souveraineté européenne en matière de données,

La CES appelle les institutions de l'UE à renforcer les lois antitrust et à introduire des réglementations strictes pour empêcher la concentration du marché dans les services et l'infrastructure d'IA. Pour relever ces défis, la CES appelle les institutions de l'UE à renforcer les lois antitrust et à introduire des réglementations strictes pour empêcher la concentration du marché dans les services et les infrastructures d'IA. Ces réglementations devraient favoriser un environnement dans lequel les entreprises européennes d'IA peuvent être compétitives grâce à des financements publics, des subventions à l'innovation et des protections juridiques, en particulier pour les travailleurs. Un système fiscal équitable devrait être soutenu pour redistribuer la richesse générée par l'IA, en finançant l'infrastructure numérique publique et la protection des travailleurs, en particulier en augmentant les salaires. Les modèles d'IA libres et décentralisés devraient être encouragés pour offrir des alternatives à l'IA protégée par des droits d'auteur, en garantissant un accès équitable à l'innovation induite par l'IA. En outre, la CES appelle les institutions de l'UE à utiliser pleinement la loi sur le service numérique et la loi sur le marché numérique et à maintenir l'intégrité réglementaire contre les efforts de lobbying qui pourraient saper les cadres réglementaires de l'UE.


7.    Investir dans une infrastructure européenne de l'IA
L'Europe doit affirmer son leadership dans le développement de l'IA éthique en investissant dans une infrastructure d'IA souveraine. La fibre et les réseaux sont essentiels à la connectivité gigabit, mais ils n'atteignent que 64 % des ménages de l'UE, contre plus de 99 % au Japon et en Corée du Sud. La réalisation des objectifs de connectivité nécessite un investissement estimé à 200 milliards d'euros. Les investissements publics dans les projets européens d'IA devraient donner la priorité aux technologies centrées sur les travailleurs et respectueuses des droits de l'homme. Une stratégie européenne en matière d'IA alignée sur les droits fondamentaux du travail est essentielle pour favoriser l'autonomie technologique tout en veillant à ce que l'IA soit au service de la société plutôt que du profit des entreprises. L'UE devrait également envisager de développer une infrastructure numérique publique, en s'inspirant des radiodiffuseurs publics. Par exemple, une plateforme de médias sociaux ou un centre de développement de l'IA financé par les pouvoirs publics pourrait garantir un accès plus équitable à l'information, défendre les valeurs démocratiques et empêcher la monopolisation du marché par les grandes entreprises technologiques. En outre, la CES demande que les données publiques soient stockées sur des services de cloud public européens afin de garantir la sécurité et l'indépendance. Les initiatives publiques en matière d'IA pourraient créer un écosystème qui favorise l'innovation tout en sauvegardant et en promouvant les droits et la vie privée des travailleurs.


Le déploiement rapide de l'IA sur les lieux de travail représente un défi majeur pour les droits des travailleurs, la sécurité de l'emploi et la justice sociale. Le législateur européen doit agir de manière décisive pour protéger les travailleurs en garantissant des cadres réglementaires solides qui favorisent un déploiement équitable de l'IA, protègent la confidentialité des données et défendent des pratiques éthiques en matière d'IA. La CES appelle à une action législative forte, y compris une directive spécifique sur les systèmes algorithmiques au travail, des mesures pour contrer les monopoles de l'IA, et un investissement substantiel dans le développement de l'IA éthique et centrée sur le travailleur. Pour faire appliquer le cadre législatif sur l'IA, la CES souligne que les États membres et l'UE doivent renforcer les régulateurs publics en veillant à ce qu'ils soient bien dotés en ressources et en personnel qualifié. En outre, il est essentiel de renforcer les négociations collectives à tous les niveaux afin de garantir que le déploiement de l'IA s'aligne sur des pratiques de travail équitables et sur les droits des travailleurs, et qu'il soit adapté aux besoins spécifiques des secteurs. Les accords intersectoriels et sectoriels des partenaires sociaux de l'UE sur la numérisation, y compris l'IA, sont de bons exemples de la manière dont les partenaires sociaux peuvent façonner la traduction numérique pour améliorer la qualité de la vie professionnelle de chacun, pour autant que les institutions et les partenaires sociaux aient la volonté politique d'agir dans ce sens.