[Université de l’ANDRH] : les entreprises se dotent de chartes éthiques sur l’intelligence artificielle pour définir les bons usages

[Université de l’ANDRH] : les entreprises se dotent de chartes éthiques sur l’intelligence artificielle pour définir les bons usages

24.06.2024

Gestion du personnel

Les DRH, réunis à l’Université de l’ANDRH à Montpellier les 20 et 21 juin, ont mis en garde contre l’utilisation de ChatGPT au travail sans précaution. Ils s’attellent à poser un cadre strict via l’adoption de chartes éthiques. Plus de la moitié des salariés ont recours à l’intelligence artificielle sans en informer leur hiérarchie, selon un sondage Ifop pour LearnThings.

A première vue, rien de particulier. Audrey Richard, présidente de l’ANDRH, a donné le coup d’envoi de l’Université de l’ANDRH, ce jeudi 20 juin, à Montpellier, en déclinant un message de bienvenue aux 650 invités en quatre langues, anglais, japonais, arabe, suédois. Sauf que si le discours de la DRH de Canal Plus était bien reconnaissable entre mille, avec les mêmes intonations et le même rythme, il était en réalité créé de toute pièce en utilisant la voix de la présidente de l’association. Un résultat bluffant qui a tout autant amusé qu’interloqué les professionnels RH réunis pour ces deux journées consacrées à l’intelligence artificielle et à ses répercussions dans le monde du travail et particulièrement dans la fonction RH.

L’IA ? "Un réel danger pour les entreprises vis-à-vis de leur confidentialité"

Depuis la percée fulgurante de ChatGPT, l'intelligence artificielle s’immisce de plus en plus dans les organisations. Or, il est essentiel pour les entreprises de mettre en place des mesures adaptées pour encadrer son utilisation.

Outre la manipulation de l’information et l’escroquerie par imitation de la voix d’une personne spécifique, comme Audrey Richard a tenu à le souligner, l’IA pose un problème éthique. 55 % des salariés l’utilisent pour accomplir certaines tâches quotidiennes sans en informer leur hiérarchie, selon une enquête de l’Ifop pour Learnthings, réalisée en janvier dernier, auprès de quelque 2 000 personnes (en pièce jointe).

Or, ces technologies utilisées à mauvais escient constituent "un réel danger pour les entreprises vis-à-vis de leur confidentialité", insiste Audrey Richard. Les salariés n'ont pas vraiment conscience de la portée de leurs actes. "Ils transmettent des documents confidentiels qui rejoignent d'un clic le domaine public".

"Il y a un déficit de communication autour des usages et de la sécurité de l’IA dans les entreprises, confirme Marc Landré, associé au sein du cabinet en management et stratégie Sia Partners. C’est la première révolution technologique qui pénètre le monde de l’opinion publique avant le monde de l’entreprise. Les usages pratiqués à titre privé peuvent avoir des conséquences dramatiques pour l’entreprise en termes de sécurité, de cybersécurité, de propriété et de diffusion de data".

Gestion du personnel

La gestion des ressources humaines (ou gestion du personnel) recouvre plusieurs domaines intéressant les RH :

- Le recrutement et la gestion de carrière (dont la formation professionnelle est un pan important) ;
- La gestion administrative du personnel ;
- La paie et la politique de rémunération et des avantages sociaux ;
- Les relations sociales.

Découvrir tous les contenus liés
L’IA "ne peut se substituer aux interactions humaines", selon Randstad

Face à ces menaces, les entreprises se dotent de chartes éthiques. C’est le cas de Randstad qui souhaite "utiliser l’IA de manière éthique et responsable". Le document de quatre pages affirme que l’IA "ne peut se substituer aux interactions humaines et ce, quelles que soient les étapes du processus [du recrutement]". Il définit six grands principes : la supervision humaine, la transparence et la clarté, l’impartialité et l’inclusion, la confidentialité, la sécurité et la responsabilité. "A chaque fois que nous utilisons l’intelligence artificielle, la décision finale revient au consultant, insiste François Moreau, secrétaire général du groupe. Nous veillons, en outre, à éviter les biais cognitifs, en validant les outils utilisés par une structure extérieure". 

Le recours à l’IA se traduit par une amélioration des performances, selon François Moreau : "le temps pour rédiger une annonce est passée de 20 à cinq minutes avec l’IA".

Les lignes rouges de l’Apec

Comme Randstad, l’Apec ne s’interdit pas d’utiliser l’intelligence artificielle. Fruit d’un long travail mené par la direction de la prospective, cette charte met en place des garde-fous.

"Nous avons testé 10 cas d’usage, par exemple sur la manière de publier une offre d’emploi, de rédiger nos études, de délivrer nos prestations de conseil. Nous avons comparé les modèles avec et sans utilisation de l’IA afin de déceler la plus-value de ces technologies", précise Gilles Gateau, directeur général de l’Apec. Cette charte, présentée au CSE, fournit un guide d’utilisation pour tous les consultants qui disposent désormais de ChatGPT sur leur poste de travail. "Elle définit ce qui est autorisé, ce qui est permis sous surveillance et ce qui est interdit", complète ainsi Isabelle Gire, responsable de la prospective.

La charte impose que tout usage d’une IA générative soit systématiquement et explicitement signalé aux candidats comme aux recruteurs.

Parmi les lignes rouges, l’utilisation des données personnelles des clients et des entreprises via ChatGPT ou le recours à ChatGPT pour chercher des informations sur un candidat.

La charte sera amenée à évoluer au fil "des mutations rapides de ces innovations et des enseignements que l’Apec tirera de leur utilisation, indique Gilles Gateau. Il ne s’agit que de la V1, nous allons apprendre au fur et à mesure".

A l’Afnor, la charte bientôt annexée au règlement intérieur

A l’Afnor, cette charte a vocation à être annexée au règlement intérieur de l'entreprise. Ce cadre général permet aux salariés de tester l’IA dans les règles, assure Laurence Breton-Kueny, vice-présidente de l'ANDRH et DRH du groupe. Il repose sur quatre principes éthiques, la transparence, la responsabilité, le respect de la vie privée et de la production intellectuelle. "Surtout, les salariés savent désormais qu’il est interdit, par exemple, de mettre dans ChatGPT un document interne à l’entreprise, au nom de la protection des données. Les IA se nourrissent de ce que vous leur donnez. Résultat, elles sont susceptibles de divulguer des données confidentielles, personnelles ou stratégiques, comme la dernière décision du Comex".

D’ailleurs, pour éviter le risque de fuite, le groupe dispose désormais de son propre ChatGPT, appelé "Félix le chat". Idem pour Canal Plus ou Orange.

France Travail en lutte contre les algorithmes misogynes

Autre exemple : celui de France Travail qui a également mis au point une charte d’utilisation de l’IA, en 2022, co-construite avec un groupe de travail pluridisciplinaire ainsi qu’avec les usagers, demandeurs d’emploi et conseillers. Elle a été validée par le Comité consultatif éthique externe de Pôle emploi sur l’IA. L’esprit du document est là encore que "l’humain soit au centre des décisions, et non la machine", résume Denis Cavillon, directeur général adjoint en charge des ressources humaines et des relations sociales de France travail qui rappelle que l’opérateur public a fait les frais d’une cyberattaque en mars dernier. Avec à la clef, la crainte que les données de 43 millions de personnes inscrites à Pôle emploi, Cap Emploi - ou disposant d'un espace candidat sur France travail - pouvaient être divulguées ou exploitées de manière illégale.

L’autre inquiétude, selon Denis Cavillon, est de générer des biais discriminatoires ; les algorithmes pouvant, par manque de données sur les femmes, par exemple, être misogynes, si le métier sollicité ne se décline qu’au masculin… D’où la nécessité de garantir la "fiabilité des solutions proposées".

10 % des salariés formés à l’IA

Reste qu’une charte, malgré ses nombreuses vertus, "n’engage que celui que la signe", prévient Marc Landré. "Elle donne bonne conscience et permet d’avoir un premier niveau d’appréhension de la problématique". En clair : elle n’est pas une fin en soi. C'est pourquoi, plusieurs organisations, à l’instar de l’Apec, de Canal Plus, d'Orange, de France Travail, de Randstad ou de l’Afnor ont complété leur document par une formation ou des sessions de sensibilisation au bon usage de ces technologies. Par exemple, sur la manière de rédiger un prompt, de contrôler l’information et de "garder un esprit critique".

L’urgence est réelle : 10 % des salariés seulement ont été formés à l’intelligence artificielle, selon le sondage de l'Ifop pour LearnThings.

Anne Bariet
Vous aimerez aussi