A l'occasion de la parution d'un guide Agir de Secafi sur l'intelligence artificielle, nous avons demandé à deux de ses auteurs d'apporter quelques conseils aux représentants du personnel sur la façon d'appréhender ces nouvelles technologies et leurs effets sur le travail et l'emploi. Les réponses, dans cette interview, des experts Clémentine Bienenfeld, spécialiste des sujets économiques et sociaux, et Vincent Jacquemond, spécialisé dans les expertises sur les changements d'organisation et les conditions de travail.
Clémentine Bienenfeld et Vincent Jacquemond : Selon Eurostat, seulement 6% des entreprises d'au moins 10 salariés en France utilisent l’IA. C’est assez peu. C'est d'ailleurs pour cela que les élus du personnel doivent s’emparer dès aujourd'hui de ce sujet. Car l'IA va se développer et s'étendre, un peu à la manière du télétravail : cela peut prendre du temps, aller plus ou moins vite selon les entreprises, mais on ne reviendra pas en arrière. Restons toutefois prudents face aux fantasmes sur l'IA. En 2022, la présentation de ChatGPT avait provoqué une phase de grand engouement dans les entreprises mais aussi chez certains salariés.
On nous promettait un grand big bang des organisations, comme si cette technologie allait tout changer. Depuis, il y a eu comme une série d'allers-retours entre cet enthousiasme débridé et des retours d'expérience réels plus mitigés, avec des questionnements, notamment sur sa rentabilité. Car on l'oublie parfois, mais cette technologie s'avère très coûteuse. Ces coûts de fonctionnement suscitent d'autant plus d'attentes en termes de gains de productivité, que ces attentes soient publiquement exprimées ou non lorsque l'entreprise "vend" l'IA auprès de ses salariés. Dans les analyses que nous conduisons pour les représentants du personnel au sujet de l'IA, la partie économique de ces projets est très importante.
Parler des objectifs de gains de productivité, c'est pouvoir enclencher un débat non seulement sur le partage de la valeur mais aussi sur les conséquences sur le travail. Ajoutons aussi que la question écologique et climatique liée à l'utilisation de ces outils va se poser de plus en plus : une recherche sur ChatGPT consomme dix fois plus d'électricité qu'une recherche avec Google. C'est aussi un élément à soulever auprès des directions d'entreprise.
L'IA n'est pas une technologie comme les autres dans la mesure où c'est une technologie qui évolue au fur et à mesure des données qui l'alimentent. Donc, lorsque l'on la déploie, on ne connaît pas les conséquences qu'elle produira sur l'organisation économique de l'entreprise et sur celle du travail.
Par exemple, Amazon a voulu utiliser un outil IA pour présélectionner les CV selon les offres d'emplois proposées. L'entreprise s'est rendu compte, au bout de quelques mois, que l'outil discriminait les candidatures en privilégiant les hommes, plutôt âgés, ingénieurs. Comme le dit le règlement européen (IA Act), l'IA est une technologie complexe et opaque qui agit en interaction avec les organisations au sein desquelles elle est installée, et qui sert à prendre des décisions.
Vous savez, certains élus utilisent déjà l’IA pour leur mandat, par exemple pour faire des synthèses ou des traductions ! Attention toutefois au problème de confidentialité : c'est une des raisons qui font que, nous-mêmes, nous n'utilisons pas ces technologies pour nos missions dès lors que nous sommes en présence de données sensibles. Mais revenons à votre question. Nous donnerions deux conseils. Le premier, c’est de se documenter : il y a de nombreuses choses à lire et à écouter (*).
Il faut aussi ne pas hésiter à mettre les mains dans le cambouis de ces IA génératives (IAg). Le plus simple consiste à utiliser, pour les tester, les outils type ChatGPT, Claude, Mistral ou autre. C’est une façon de commencer à les connaître, de voir leurs possibilités et leurs limites. On a d’autant plus peur de ces outils qu’on ne les connaît pas, comme l’a montré une étude de Yann Ferguson. Cela dit, les représentants du personnel n’ont pas vocation à devenir des spécialistes des outils IA. Notre deuxième conseil, c'est d'aller voir les salariés qui travaillent avec ces outils, de leur demander l'intérêt qu'ils y trouvent, la façon dont ils travaillent et ce que cela produit, s'ils ont des craintes pour leur métier et leur emploi, s'ils savent comment l'outil fonctionne, etc.
Les outils d'intelligence artificielle entrent souvent en entreprise sans que cela soit débattu en amont, et parfois les salariés utilisent eux-mêmes ces outils sans en parler à leur hiérarchie ou à leur employeur.
S'agissant des politiques d'entreprise, dans le meilleur des cas, ce sont des projets ou des formes d'expérimentation avouées, et, dans le pire des cas, des déploiements d'outils sans débat. On peut toujours discuter du fait que l'on se situe ou non dans le cadre d'un projet important qui ouvre droit à une consultation du CSE voire à une expertise, cela dépend de l'importance du projet. Quoi qu'il en soit, je crois qu'il faut mettre sur la table les conditions d'un dialogue social sur le sujet : comment va-t-on discuter de l'IA en CSE, dans quel cadre et selon quel planning ?
Le sujet de l'IA peut être inscrit dans les ordres du jour du CSE, notamment lors des informations-consultations récurrentes comme les orientations stratégiques. A l'occasion de cette consultation sur l'avenir de l'entreprise, nous conseillons aux élus de poser cette question : quelle est la stratégie de l'entreprise vis à vis de l'IA ? Peu d'entreprises répondront qu'elles n'y recourront jamais ! Une fois actée qu'il y a bien une stratégie d'IA envisagée ou déjà définie, on peut ensuite voir les impacts sur la politique sociale, les emplois et la formation, et s'intéresser précisément à la mise en œuvre : quels outils seront utilisés ? Les a-t-on expérimentés ? Si oui, avec quelles leçons ? Qui va les avoir en main ? Quels effets cela va produire ? Car l'IA peut modifier à terme le modèle économique d'une entreprise.
Ensuite, nous préconisons la mise en place d'un comité IA qui associe les représentants de la direction, les représentants du personnel avec des juristes et un délégué éthique, si possible sous la forme d'une commission du CSE. Ce comité permettra de suivre sur le long terme les développements de l'IA et son impact dans l'organisation de l'entreprise.
Nous partageons aussi les préconisations du Dial-IA (**) quant à l'idée d'un registre IA, sur le modèle du registre du règlement général des données (RGPD). Il s'agit d'un document listant les outils IA utilisés et envisagés dans l'entreprise, avec leurs caractéristiques, leur coût et le retour sur investissement qui en est attendu, les formations apportées au personnel, etc. De cette façon, les discussions entre la direction et les représentants du personnel pourront se faire sur la base d'éléments concrets.
Dans le cadre des orientations stratégiques, oui, cela peut s'inscrire dans l'évaluation des projections d'emploi (gestion prévisionnelle des emplois et compétences, GEPP) et de la stratégie numérique, afin que les élus disposent d'une vision d'ensemble, notamment lorsque l'entreprise n'a pas encore mis sur la table sa stratégie IA. La question du rapport au travail impacté par l'IA, et donc des conditions de travail, peut aussi justifier une expertise. Cela nécessite d'obtenir une information-consultation sur le projet d'introduction de l'IA, qui entre dans le champ des projets d'introduction de nouvelles technologies, et dont les impacts sur les conditions de travail doivent être discutés en CSE.
C'est l'importance du projet et de ses impacts sur les conditions de travail qui peut justifier une expertise, il y a une appréciation à faire. S'il s'agit de la mise à disposition de Copilot à cinq cadres dirigeants, je ne vais pas recommander une expertise pour un projet important ! Mais s'il est prévu ensuite de déployer cet outil à un grand nombre de salariés, ce peut être différent.
L'argument souvent avancé en faveur de l'IA est en effet celui d'une simplification du travail. En gros, l'IA va vous éviter d'effectuer certaines tâches et donc vous permettre de passer ce temps gagné sur d'autres tâches à plus forte valeur ajoutée. Mais si vous devez utiliser le temps gagné sur ces tâches à gérer des missions plus complexes, cela signifie une intensification de votre travail, et cela pose aussi d'autres problèmes.
Ces tâches accomplies par l'IA, le salarié pouvait y trouver un intérêt, elles pouvaient nourrir sa réflexion. Or, quand on demande à l'IA de penser à la place du salarié, pour préparer une synthèse ou un tableau, cela lui fait gagner du temps, certes, mais cela escamote parfois tout un temps de préparation mentale nécessaire.
Si le salarié doit aller voir le client avec cette synthèse préparée par l'IA sans avoir eu le temps de réfléchir à son dossier, il risque d'être plus en difficulté que s'il avait lui-même préparé la synthèse en s'appropriant le dossier ou la proposition. Ce mécanisme d'intensification du travail, on l'a déjà connu avec l'automatisation de certaines tâches physiques. Enlever de la pénibilité au travail, c'est positif, à condition que le temps ne soit réduit pour l'exécution d'autres tâches. Par exemple, on peut considérer que le temps mis à aller chercher un produit à un autre endroit, c'est de la perte de temps pour le salarié, et qu'on gagne en productivité en lui permettant tout à disposition sous la main. Sauf que pendant ce déplacement, le salarié pouvait souffler, et réfléchir à son travail. Il y a aussi un enjeu de transparence sur les modalités de fonctionnement de l'IA. C'est un point important que nous avons vu chez les conseillers clientèles dans la banque. Ils se retrouvent à conseiller leurs clients sur la base de suggestions venant de l'IA, mais s'ils ignorent comment l'outil d'intelligence artificelle a procédé pour dégager ces suggestions, ils peuvent être en difficulté pour continuer à jouer leur rôle de conseillers.
C'est cela ! Dans les entreprises, un projet d'IA est souvent justifié, nous le constatons dans nos interventions, par des arguments sur la simplification apportée par l'outil d'intelligence artificielle. Ce qui revient souvent, c'est l'idée d'une amélioration des conditions de travail grâce à l'IA et l'attente, par les directions, de gains de productivité importants. Sauf que c'est la manière de mettre en œuvre l'outil qui va s'avérer déterminante.
Le projet et l'outil seront-ils acceptés parce qu'ils prennent en compte les besoins des salariés dans leur activité de travail, en analysant comment l'outil peut leur faciliter des tâches, ou, au contraire, seront-ils mal acceptés, voire rejetés, parce qu'ils ont été déployés sans cette réflexion ? Si le projet de l'entreprise est partie de l'outil et de ses possibilités pour en déduire ensuite la part de travail qui reste à faire faire aux salariés, il va inévitablement se heurter à conflit de logique et de valeurs. Les changements annoncés seront rejetés, car en décalage avec la vision du travail que peuvent avoir les salariés. C'est très important. Il faut être vigilant par rapport à des formes de domination par la machine ou par des outils numériques, comme avec les scripts imposés à des opérateurs de centres d'appels, par exemple. C'est souvent la dernière étape avant le remplacement de l'opérateur de l'IA. Un autre écueil est celui de la responsabilité.
L'outil automatique dépolitise les décisions (Ndlr : lire l'interview de Pascal Lokiec sur le sujet). Si l'IA prévoit le remplacement de telle pièce mécanique d'un moteur à telle date mais que le moteur tombe en panne parce que la pièce est défectueuse avant la date de remplacement prévue, à qui la faute ? Au fabriquant de la pièce, à l'ingénieur, au concepteur de l'IA ou au mécanicien ? Le risque est fort de rendre ce dernier responsable...
(*) A lire par exemple : le laborIA, le rapport de l'Ires sur le travail et l'emploi à l'épreuve de l'IA, le manifeste de Dialia, etc. A écouter : le podcast du Labor IA, le podcast "les dames de l'algorithme", etc. Voir aussi le dossier IA de...actuEL-CSE et le podcast Le Micro Social.
(*) Le projet Dial IA réunit des représentants des confédérations CFDT, CGT, FO et CFE-CGC pour pousser l'intelligence artificielle sur le chemin du dialogue social (lire notre article)
► Le guide de Secafi "Agir pour une intelligence artificielle au service du travail", long de 32 pages, a été écrit par Clémentine Bienenfeld, Vincent Jacquemond et Ludovic Ponge. Il est téléchargeable ici.
En France, un accord sur mille fait référence à l'IA
|
Dans un quatre pages publié en octobre 2024, le Centre d'études de l'emploi et du travail (CEE) s'intéresse aux accords d'entreprise qui mentionnent l'IA. Depuis 2017, constate le CEE, un peu moins d’un accord sur mille, en France, fait référence à l’IA. "Le caractère émergeant des systèmes d’IA et les difficultés de négocier sur les usages des technologies expliquent en partie cette faible occurrence dans les accords d’entreprise. Si cette modeste proportion contraste avec l’importante médiatisation de cette technologie, il convient de remarquer qu’entre 2018 et 2023, la proportion d’accords d’entreprise signés qui évoquent l’IA a été multipliée par 2,5", souligne l'étude. La mention de l'IA dans les accords d'entreprise est plus fréquente dans les secteurs comme l'information-communication, la finance, l'industrie, le transport, comme on le voit ci-dessous : Autre enseignement : lorsque l'IA est mentionnée dans un accord, c'est le plus souvent en lien avec le thème de l'emploi, loin devant les thèmes de discrimination, de formation et de télétravail et déconnexion, comme on le voit sur le graphique ci-dessous : |