Si les salariés "bricolent" en cachette avec l'IA, c'est par défaut !

Si les salariés "bricolent" en cachette avec l'IA, c'est par défaut !

06.07.2025

Représentants du personnel

Sous le nom de "shadow AI", l'Inria s'intéresse aux pratiques clandestines de l'intelligence artificielle par les salariés. Ces pratiques, qui visent l'efficacité et le gain de temps, s'expliquent aussi par l'absence d'outils et de règles adéquats. Les entreprises peuvent sortir de ce "shadow IA" par le haut, et "de façon négociée", en mettant le travail au centre du projet.

"Mon Dieu quel bonheur d'avoir un mari qui bricole", chantait Patachou en 1953 sur des paroles de Georges Brassens. Soixante douze ans plus tard, pourrait-on moderniser le texte et entonner : "Mon Dieu quel bonheur d'avoir un salarié qui bricole avec l'intelligence artificielle ?"

La réponse que donne le rapport sur l'IA de l'Institut national de recherche en sciences et technologies numériques (Inria) et du club Datacraft est mi-figue, mi-raisin : si les salariés bricolent eux-mêmes avec l'IA, c'est souvent faute de mieux dans leur entreprise ; certes, ils participent à une forme d'innovation et de recherche de performance, mais ce faisant, ils peuvent aussi prendre des risques et en faire prendre à leur organisation. Aussi faut-il dépasser ces pratiques.

Des grands discours mais des outils peu adaptés

L'arrivée de ChatGPT d'OpenAI à l'automne 2022 a démocratisé l'usage de l'intelligence artificielle. Dès 2023, 18 % des employés français utilisaient l'IA générative au travail, plus de la moitié d'entre-eux le faisant en dehors d'un cadre défini par les employeurs.

Si les usages informels de l'IA sont si présents dans les sociétés étudiées (*), si les salariés "bricolent" autant dans leur coin, c'est d'abord parce que les entreprises ont du mal à passer des grands discours sur l'IA aux actes.

C'est-à-dire à transformer des ambitions stratégiques sur l'intelligence artificielle en usages réels sur le terrain découlant d'une véritable politique "d'industrialisation de l'IA". Et lorsque ces projets IA d'entreprise sont industrialisés (dans 20 % des cas seulement), ils ne concernent pas tous les métiers ni ne sont en prises avec le travail réel. Ces projets sont construits d'en haut, dans une logique gestionnaire de rationalisation, d'automatisation et de standardisation.

 Savoir prompter, une compétence-clef

 

 

"Ce décalage provoque une forme de rejet ou d'indifférence des professionnels, qui peinent à voir l'utilité ou la légitimité de ces outils dans leur contexte", écrit l'Inira.

Aussi les salariés font-ils leur propre cuisine pour développer des usages correspondant à leurs besoins réels, qu'il s'agisse de traduire un texte, de mieux le structurer, de faire une veille, de reformuler un mail ou de chercher des idées.

Ils n'en parlent pas à leur hiérarchie, mais testent et expérimentent à leur niveau. Comme les Shadoks sachant pomper, le "savoir prompter" devient une compétence-clef.

 

Deux témoignages sur les usages

 

Elisabetta, commerciale dont le Français n'est pas la langue maternelle :

"Avec ChatGPT, très rapidement, c'était le grand amour. J'écris beaucoup de mails de prospection et de relance à des interlocuteurs variés. Et même si tu écris bien et sans faute, il y a quand même différents types de langage à utiliser pour différents types d'interlocuteurs. On m'avait déjà fait remarquer que mes relances étaient "cavalières" (..) ChatGPT m'a aidé à apprivoiser cette différence culturelle entre l'Italie et la France. J'écris le mail, puis je demande à ChatGPT de le transformer de manière corporate (..) Ce genre d'outils me suggère des modalités de communication qu'en tant qu'étrangère, je n'aurais pas eues".

Maud, experte-comptable

"Pour la collecte d'informations, très chronophage, ChatGPT me sert de moteur de recherches augmenté (..) Je compare aussi des données d'entreprises de plusieurs pays (..) L'IA fait office de traducteur de normes d'un pays à l'autre, d'un système comptable à l'autre. Je l'utilise aussi pour m'apprendre des choses. Par exemple, j'avais un graphique à produire sur Excel et je ne savais pas comment le faire, et ChatGPT m'a donné en 5 minutes un mode d'emploi. C'est un peu le professeur Nimbus, il sait tout et il me dépanne". 

 

Le côté obscur de l'IA solitaire

Cet usage solitaire, non encadré et non officiel, traduit une forme "d'ingéniosité professionnelle" : comment puis-je améliorer mon travail moi-même ?  On comprend que nombre d'entreprises n'osent pas s'y opposer.

Mais il pose aussi de sérieux problèmes.

Du côté de l'entreprise, des informations sensibles voire confidentielles peuvent prendre la poudre d'escampette dans des serveurs extérieurs : "8,5 % des invites soumises aux outils de génération IA contiennent des données sensibles, soit 1 prompt sur 12", selon une étude de fin 2024 d'Harmonic Research.

Exemple de ces risques : demander à l'IA de reformuler un mail commercial en indiquant le client et son adresse ; préparer avec ChatGPT une note destinée à une direction, etc. Mais le risque est aussi celui d'une banalisation, d'une dégradation du travail obtenu : "Il est tentant de demander un avis à ChatGPT et de reprendre sa réponse sans réelle analyse. Mais si tout le monde fait ça, pour les appels d'offres et les recommandations, tout finira par se ressembler", dit un professionnel. 

L'esprit critique est un atout pour mieux tirer partie de l'IA 

 

 

D'autre part, les modèles d'IA générative peuvent aussi se tromper et induire les salariés en erreur. Le rapport souligne d'ailleurs l'importance de l'esprit critique pour mieux tirer partie de l'IA. Problème : cette compétence est peu valorisée dans des organisations qui la perçoivent comme négative et nuisible. On rejoint là les carences du management à la française, où la loyauté est vue d'abord comme de l'obéissance (lire notre article).

Du côté des salariés, ces pratiques cachées n'ont pas que des avantages. Elles génèrent "inconfort moral et pression psychologique". Une culpabilisation liée à la peur de "tricher" et d'être sanctionné. Pour les auteurs du rapport (**), cet usage individualisé peut favoriser la compétition (par exemple : j'ai trouvé comment gagner du temps et je garde cette solution pour moi) et fragiliser la cohésion des collectifs de travail : il empêche la construction de règles partagées autour d'un bon travail sur l'IA. Par exemple, le recours à l'IA peut remplacer les interactions entre collègues, qui se pratiquaient pour relire, échanger ou créer, ce qui affaiblit la circulation des savoirs et donc l'apprentissage collectif. 

Comment dépasser cette situation de "bricolage" ?

Face aux pratiques clandestines de l'IA par les salariés ("Shadow IA"), le rapport identifie plusieurs attitudes de la part d'entreprises, allant d'une forme de permissivité (à droite) ou au contraire d'une forte dissuasion (à gauche), comme on le voit dans le schéma ci-dessous. 

Inria

Mais quelle est la bonne attitude du point de vue de l'entreprise ?

Déjà, "reconnaître l'ampleur du phénomène". L'Inria préconise de fixer rapidement "des premiers garde-fous avec les directions-métiers".

Ensuite, favoriser la communication entre pairs pour "favoriser les échanges de bonnes pratiques". Il s'agit ici de parler des expériences réelles : "Qu'avez-vous réellement obtenu en utilisant l'IA pour cette tâche ?" "Quel écart percevez-vous entre ce que vous attendiez et le résultat apporté par l'IA ?" "Quels critères de qualité de travail souhaitez-vous préserver, adapter ou faire évoluer avec l'IA (ex : précision, créativité, autonomie, rigueur, etc.) ?" "Dans quelles situations l'IA vous semble-t-elle utile et dans lesquelles devient-elle problématique ou contre-productive (ex : perte de sens, trop de standardisation, déqualification, etc.) ?"

Faire de l'IA un thème de discussions avec les IRP et les salariés

Enfin, "sécuriser" en rendant accessible "des outils validés" et en "clarifiant les conditions d'usage" dans un cadre légal. Par "cadre légal", les auteurs ne décrivent pas un règlement, mais "un objet de dialogue interfonctionnel et social", d'autant plus légitime "s'il est construit avec les représentants du personnel et nourri par les retours terrain".

Ce chantier, prévient le rapport, ne doit pas reposer "sur une gouvernance technocentrée", autrement dit être pilotée par une direction fonctionnant en vase clos.

Mettre le travail au centre 

 

 

Pour "mettre le travail au centre" d'une stratégie IA, l'Inria suggère d'associer à la construction de ce cadre les directions informatiques, les métiers de l'entreprise, les directions juridiques, les ressources humaines, les salariés eux-mêmes (qui peuvent être invités à dire comment ils effectuent leurs "meilleurs prompts", c'est-à-dire comment ils rédigent leurs meilleures requêtes pour obtenir une réponse adéquate de l'IA)  et les représentants du personnel.

"Les instances de représentation du personnel, dit clairement le rapport en écho aux syndicats (lire notre encadré), doivent être informées, consultées et associées tout au long du processus, dans le respect du dialogue social technologique".

Nous avons commencé cet article par Brassens, terminons-le par une autre citation (reproduite de mémoire et sans l'aide de l'IA), de Cioran cette fois : "L'homme moderne bricole dans l'incurable".

 

(*) Le rapport s'appuie sur une enquête qualitative menée auprès de "14 organisations pionnières" : Airbus, Assurance Maladie, Believe, CHU de Montpellier, Crédit Agricole, Ekimetrics, L'Oréal, MAIF, Malakoff Humanis, Métropole de Montpellier, ministère des Armées, Région Ile-de-France, Skyrock, Veepee. 

(**) L'auteur du rapport est Yann Ferguson, directeur scientifique du LaborIA à l'Inria (Institut national de recherche en sciences et technologies du numérique). Il a coordonné le travail d'Isabelle Hilali, Edouard Havis, Jean-Michel Lefèvre, Laurence Mari, Julia Savali, et Jeanne Godard, cette dernière étant membre de Datacraft, un club de data scientists et d'ingénieurs de 50 grandes entreprises.

 

Les syndicats demandent un dialogue social sur l'IA 

Le rapport cite les positions de plusieurs organisations syndicales au sujet du "shadow IA".

► La CFTC réclame une régulation forte de l'IA et alerte sur les risques juridiques d'un usage incontrôlé de ces outils. La confédération demande "l'implication des représentants du personnel dans la surveillance et l'encadrement des outils IA déployés" et "l'intégration de l'IA dans les accords collectifs et les chartes internes, y compris ses usages non officiels". 

► Pour la CFDT, les outils d'IA génératives doivent pouvoir être utilisés par les travailleurs "dans un cadre de confiance et de manière transparence". Cela suppose, pour le syndicat, "d'instaurer un dialogue social" sur les IA génératives et sur l'ensemble des technologies numériques au travail. Car les systèmes algorithmiques peuvent aussi être utilisés en matière de management, de RH, d'évaluation, d'aide à la décision. 

► Pour la CFE-CGC, le "shadow AI" présente des risques réels, il faut donc accompagner ces pratiques et former les salariés : "Les entreprises doivent avant tout discuter avec les représentants du personnel afin de reprendre la main et définir des modalités de l'utilisation par les salariés de ce type d'outils. Cela peut passer par la négociation d'une charte dans laquelle les salariés s'engagent à respecter les règles négociées par accord".

La confédération des cadres évoque aussi le recours à l'IA pour rédiger par exemple des synthèses de réunions de CSE ou des tracts syndicaux : "La prudence est de mise. Sans interdire, il faut encadrer ces usages (..) Les documents remis dans le cadre d'une information-consultation peuvent être confidentiels. Idem pour la négociation d'un accord". 

► Pour l'Ugict-CGT, qui préfère le terme "IA clandestine" au "shadow AI", il faut revenir aux fondamentaux : "L'IA clandestine peut être symptomatique de lacunes et dysfonctionnements des procédures ou outils métiers, ou de dysfonctionnements de l'organisation de travail et donc de risques organisationnels". Et le syndicat des cadres de la CGT de renvoyer aux travaux du projet intersyndical Dial-IA mené par l'Ires et aux travaux du LaborIA

Représentants du personnel

Les représentants du personnel sont des salariés élus ou désignés chargés de représenter les salariés de l’entreprise avec des missions spécifiques selon l’instance représentative du personnel (IRP) à laquelle ils appartiennent. Il y a quatre grandes IRP : les DP, le CE, CHSCT et les délégués syndicaux.  Au 1er janvier 2020, l’ensemble des IRP (hormis les délégués syndicaux) devront fusionner au sein du CSE.

Découvrir tous les contenus liés
Bernard Domergue
Vous aimerez aussi