Dans cette chronique, Henri Guyot, avocat associé au sein du cabinet ærige avocats, interroge les multiples facettes de l'intelligence artificielle et les risques liés à son utilisation. Les entreprises se doivent d'élaborer une stratégie de déploiement articulée autour de la formation et de l'information des salariés.
En France, en 2025, 35 % des entreprises d’au moins dix salariés utilisent ou déploient l’intelligence artificielle (IA), contre seulement 6 % en 2021 (1). Cette croissance exponentielle résulte de l’intégration progressive de ces technologies au sein des organisations.
Comme tout nouveau phénomène, le cadre d’utilisation de l’IA doit être défini pour cohabiter avec les individus dotés d’une intelligence traditionnelle.
Le chef d’entreprise doit se poser trois questions :
- Qu’est-ce que l’IA ?
- Quels risqués liés à l’IA ?
- Quelle stratégie de déploiement ?
Définition. L’intelligence artificielle a été définie par différentes institutions.
Selon le Parlement européen, l’intelligence artificielle désigne tout outil utilisé par une machine afin de "reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité" (2).
La Commission nationale de l'informatique et des libertés (Cnil) élargit cette définition en soulignant la capacité de l’IA à surpasser les performances humaines dans certaines tâches, comme battre un champion de jeu de go (3). Elle la décrit comme un "procédé logique et automatisé reposant généralement sur un algorithme et en mesure de réaliser des tâches bien définies".
Enfin, le règlement européen 2024/1689 (IA Act), entré en vigueur le 13 juin 2024, précise qu’un système d’IA est un système automatisé, capable d’agir avec un certain degré d’autonomie, d’adapter son comportement à partir de données reçues, et de produire des résultats, contenus, décisions ou recommandations, ayant un effet concret dans un environnement donné.
Il ressort ainsi que l’IA désigne un système informatique capable d’accomplir des tâches humaines telles que raisonner, décider ou créer. Elle agit de manière autonome, apprend au fil du temps et s’appuie sur les données reçues pour formuler des choix, générer des idées ou produire du contenu.
Typologie. L’intelligence artificielle peut être distinguée selon son degré de sophistication ou de sa finalité (4). Concernant le premier critère, on distingue :
- l’IA forte, capable d’accomplir toutes les tâches cognitives humaines dans n’importe quel contexte ;
- l’IA faible, très performante uniquement dans des domaines précis ;
- l’IA hybride, qui combine spécialisation et adaptation.
Concernant le second critère on différencie :
- l’IA descriptive, qui sert à analyser et interpréter des données passées pour en extraire des informations utiles ;
- l’IA prédictive, qui anticipe des situations ou comportements à partir de modèles statistiques ;
- l’IA prescriptive, qui propose des actions concrètes en utilisant des données existantes pour produire des éléments inédits, comme des images, des textes ou du code, ce qui la rend précieuse dans des domaines comme le marketing, la création visuelle ou les assistants vocaux ;
- enfin, l’IA générative, considérée comme une sous-catégorie de l’IA prescriptive, se focalise exclusivement sur la production de contenus originaux à partir d’instructions simples.
Gestion du personnel
La gestion des ressources humaines (ou gestion du personnel) recouvre plusieurs domaines intéressant les RH :
- Le recrutement et la gestion de carrière (dont la formation professionnelle est un pan important) ;
- La gestion administrative du personnel ;
- La paie et la politique de rémunération et des avantages sociaux ;
- Les relations sociales.
RPS. Si l’IA permet indéniablement de gagner en productivité et en temps, la survenance de nouveaux risques psychosociaux ne peut être exclue du fait de la surcharge de travail liée au sentiment de surveillance permanente ou encore une perte d’autonomie dans les missions.
Sans encadrement adapté, ces effets peuvent sérieusement détériorer les conditions de travail, réduire la productivité et donner lieu à l’engagement de la responsabilité de l’employeur pour manquement à son obligation de sécurité.
La mise à jour du DUERP permet d’envisager différentes mesures de prévention comme des formations ou l’adaptation des postes de travail. Des enquêtes internes ou baromètres sociaux peuvent également permettre de détecter un malaise naissant lié à l’introduction d’un outil d’IA.
Divulgation de données sensibles ou confidentielles. L’utilisation de l’IA par les salariés de façon non autorisée ou peu encadrée peut mener à la diffusion de données sensibles ou confidentielles.
En effet, les données sont directement transmises à des entreprises tierces. Au-delà des risques concurrentiels pour l’entreprise, la divulgation de données personnelles ou couvertes par le secret professionnel ou médical est d’autant plus problématique. Les responsables des traitements des données, sont alors exposés à l’engagement de leur responsabilité civile en cas de préjudice (5), voire même à des sanctions pénales (6) ou aux sanctions prévues par le RGPD (7).
Erreur. L’usage croissant d’IA génératives accessibles gratuitement conduit certains salariés à faire une confiance aveugle aux contenus produits sans vérification. A titre d’exemple, un avocat américain a relayé de fausses informations en citant des jurisprudences inexistantes générées par une IA, faute de relecture [9]. Une mauvaise utilisation de l’IA pourrait altérer la crédibilité et l’image de l’entreprise en cas de divulgation d’informations erronées, mais également entraîner des problèmes juridiques.
Droits d’auteur. Ces outils peuvent générer des contenus basés sur des données protégées sans citer leurs sources. La question se pose d’une possible atteinte aux droits d’auteur s’il reprend un texte attribuable à un tiers.
Fraudes. Loin d’être un cas isolé, une étude affirme que plus d’un Français sur dix admet avoir déjà utilisé un faux document (8). Or, au regard de l’amélioration constante des outils, l’IA est susceptible de produire des faux diplômes ou de fausses notes de frais (9). Outre des remboursements indus de dépenses non professionnelles, la possibilité d’embaucher des travailleurs ne détenant pas les compétences requises pourrait porter préjudice à l’entreprise. Face à ce constat, il convient de mettre en place des outils internes de vérification automatisée ou des plateformes sécurisées.
Charte IA. On ne peut pas empêcher l’innovation. La freiner n’est pas opportun. Il faut par contre encadrer l’utilisation de l’IA avec un cadre clair permettant notamment de prévenir la survenance des risques précédemment identifiés. Le cadre doit donc être sécurisant mais souple. En effet, aujourd’hui, nous ne connaissons ni les usages ni les visages futurs de l’IA. La charte doit donc être pensée avec une vision prospective (comme a pu l’être la loi informatique et libertés de 1978 dont les principes ont guidé pour partie la rédaction du RGPD près de 40 ans après).
La charte doit établir des règles claires et efficaces pour :
- protéger la confidentialité des données, voire le secret professionnel selon les secteurs ;
- veiller au respect des données personnelles, qu’elles soient entrées par l’utilisateur ou générées par l’outil ;
- prendre en compte les enjeux de propriété intellectuelle, tant pour les données fournies à l’IA que pour les contenus produits ;
- s’assurer que les résultats générés par l’IA soient systématiquement relus, vérifiés et validés ;
- mettre en place des systèmes de filtrage, de supervision ou de suivi des usages.
De plus, une charte ne saurait être efficace sans un régime de sanctions adapté en cas de non-respect. A ce titre, en tant qu’annexe au règlement intérieur de l’entreprise, elle doit être soumise à la consultation du CSE et publiée conformément aux formalités prévues par le code du travail (10).
Formation et la sensibilisation des salariés. La charte IA ne sera comprise et appliquée qu’avec un minimum de pédagogie. L’accompagnement humain reste essentiel pour favoriser une adoption responsable et efficace. Cela passe par :
- sensibiliser et former les salariés à travers l’organisation de webinaires, de formations ou encore d’ateliers afin qu’ils prennent conscience de manière concrète des différents dangers auxquels ils s’exposent ;
- intégrer des clauses dans les contrats de travail notamment de confidentialité, afin de réaffirmer cette obligation et les conséquences qui en découlent ;
- désigner un référent IA chargé d’accompagner les salariés et de répondre à leurs questions ;
- actualiser la charte en fonction des évolutions légales et technologiques. C’est pourquoi au moment de la rédaction, il est opportun qu’elle soit assez générale pour permettre de la modifier sans trop de difficultés.
Comme l’intelligence traditionnelle a été éduquée, l’IA doit être encadrée. Le recours à l’IA ne saurait se résumer à une opportunité technologique. Il s’agit d’un enjeu juridique et managérial à part entière, qui suppose la mise en place d’un cadre normatif robuste, adapté aux spécificités de chaque organisation. C’est pourquoi, l’anticipation des risques et l’accompagnement des usages constituent un levier stratégique, au même titre que la conformité au RGPD ou la sécurité des systèmes d’information.
(1) Assemblée nationale, question écrite n° 4695, 4 mars 2025, JOAN, 1er avril 2025, p. 2294.
(2) Parlement européen, "L’intelligence artificielle (IA) est en passe de devenir la “technologie clé de l’avenir”. Mais qu’entend-on exactement par “IA” et comment affecte-t-elle notre quotidien ?", publié le 7 septembre 2020, mis à jour le 20 juin 2023 à 16h17.
(3) Cnil : "Intelligence artificielle, de quoi parle-t-on ?", 22 mars 2022.
(4) Intégral : "Quels sont les différents types d’IA ?", publié le 6 mai 2024, mis à jour le 20 février 2025
(5) RGPD : Art. 82 § 1
(6) Articles 226-16 et suivants du code pénal.
(7) Amendes pouvant aller jusqu’à 20 millions d’euros ou 4% du chiffre d’affaires annuel mondial. cf. Commission européenne : "Que se passe-t-il si mon entreprise/organisation ne respecte pas les règles en matière de protection des données ?".
(8) "Fausse fiche de paie, faux diplôme : quand l’IA facilite tout !" Intelligence-artificielle.com mis à jour le 7 avril 2025
(9) "Date, montant... Les bluffantes fausses notes de frais de ChatGPT facilitent la vie des fraudeurs", Le Figaro, 4 avril 2025
(10) Articles. L.1321-4 et suivants du code du travail.
Nos engagements
La meilleure actualisation du marché.
Un accompagnement gratuit de qualité.
Un éditeur de référence depuis 1947.
Des moyens de paiement adaptés et sécurisés.