L'usage de l'intelligence artificielle, notamment les systèmes génératifs, offre un moyen efficace d'automatiser certaines tâches juridiques, sans pour autant diminuer l'autonomie des juristes. Dans cette chronique, Stéphanie Corbière, directrice juridique et conformité d’Aramis Group, nous livre sa vision.
L’intelligence artificielle représente une chance de se concentrer sur des activités à forte valeur ajoutée. Mais, cela exige un contrôle humain rigoureux afin de garantir le respect des principes éthiques et la qualité des analyses, tout en restant vigilant pour prévenir les risques à long terme tels que la paresse intellectuelle, qui pourrait émerger de l'utilisation non critique de l’IA. Explications avec Stéphanie Corbière, Group Head of Legal & Compliance Aramis Group et co-fondatrice du groupe scientifique IA de l’AFJE.
Les outils d'IA facilitent l'automatisation de tâches répétitives, telles que la recherche documentaire, la rédaction de documents standardisés ou l'analyse de contrats, libérant ainsi du temps pour que les juristes puissent se pencher sur des missions plus complexes, par exemple :
- la gestion des risques juridiques ;
- la stratégie contractuelle ;
- les négociations complexes.
Si de nombreuses études, comme celle de Goldman Sachs de 2023, soulignent les risques de disparition de plusieurs métiers en raison de la montée de l’IA, les missions complexes requièrent des compétences humaines essentielles. Le MIT CSAIL a toutefois précisé que l’automatisation présentait certaines limites et que toutes les fonctions n’étaient pas prêtes pour l’automatisation. L’étude de juillet 2024 de PWC Société d’avocats a à ce titre indiqué que les secteurs plus nuancés du conseil juridique, de l’interaction avec les clients des litiges complexes continueront de dépendre fortement des compétences humaines.
Gestion d'entreprise
La gestion d’entreprise constitue l’essentiel de l’activité d’un dirigeant d’entreprise. Elle fait appel à un grand nombre de notions empruntées de la comptabilité, de la finance (gestion des risques au moyen de la gestion des actifs et des assurances professionnelles), du droit des affaires (statut juridique, contrats commerciaux, fiscalité, cadre réglementaire et légal de l’activité), de la gestion de ressources humaines...
Même si l'IA est capable de traiter rapidement d'importants volumes de données, elle peut reproduire des biais présents dans les données d'entraînement. C'est pourquoi il est essentiel que les juristes conservent la maîtrise du processus. Leur rôle est nécessaire afin de :
- vérifier que les décisions prises ou les analyses proposées par l'IA respectent l'éthique et la conformité réglementaire ;
- contrôler les biais algorithmiques qui pourraient conduire à des décisions injustes ou biaisées.
Les juristes doivent ainsi jouer un rôle de garde-fou, en surveillant constamment les décisions issues de l'IA et en garantissant leur conformité.
A ce titre, l’étude de PWC de juillet 2024 indique que 48 % des entreprises interrogées ont déjà entamé une réflexion sur l’IA responsable, qui passe notamment par la mise en place d’une gouvernance solide et par une approche éthique responsable. Le développement du rôle de « Digital Trust Officer » pourra être à même de plus en plus se développer.
Contrairement à l'idée que l'IA pourrait entraîner une déqualification des jeunes juristes, elle leur permet de développer de nouvelles compétences et de s'approprier des outils technologiques modernes. Les juristes de demain ne passeront peut-être plus autant de temps sur des tâches simples, comme la synthèse de contrats, mais ils seront formés à des cas d'usage innovants, ce qui pourra insuffler un nouveau souffle à la profession.
L’étude de Thomson Reuter de mai 2023 sur la formation des professionnels du droit démontre que l’IA peut aider les jeunes professionnels à développer des compétences technologiques, ce qui est de nature à leur permettre de mieux répondre aux défis juridiques contemporains avec plusieurs typologies de formations : l’apprentissage continu, l’apprentissage mixte, la ludification ou encore par exemple les formations aux compétences non techniques incluant la pensée critique, la résolution de problèmes et la créativité.
Un danger potentiel de l'automatisation excessive des tâches est la perte progressive de savoir-faire et de compétences critiques. Si l'IA prend en charge certaines tâches compliquées, cela pourrait mener à un appauvrissement de l'expertise des juristes, notamment en ce qui concerne la réflexion juridique complexe.
Les risques à long terme incluent :
- le déclin de la qualité des services juridiques : une dépendance trop grande à l’IA pourrait standardiser les réponses, réduisant la capacité des juristes à fournir des conseils adaptés et nuancés ;
- la perte d’innovation : l'automatisation pourrait limiter la créativité et l'innovation juridique, en encourageant une approche trop mécanisée des solutions juridiques ;
- la paresse intellectuelle : l'utilisation non critique des technologies pourrait mener à un affaiblissement des compétences analytiques et du jugement.
Pour prévenir ces risques, il est essentiel de ne pas se reposer entièrement sur l'IA. Les juristes doivent continuer à jouer un rôle actif dans l'élaboration des solutions, en validant systématiquement les résultats produits par l'IA.
Bien que l’IA soit efficace, elle n’est pas infaillible. Les erreurs et hallucinations algorithmiques sont encore fréquentes, d'où l'importance d'un contrôle rigoureux par les juristes. Deux exemples illustrent cette situation :
- DPD a dû désactiver une partie de son chatbot en 2024 après que ce dernier s'est mis à insulter des clients au lieu de résoudre leurs problèmes (ici question simple sur un colis perdu. Incapable de résoudre la demande, l'IA a répondu par des insultes et même rédigé un poème critiquant durement la société elle-même.)
- En 2018, la société Amazon a dû abandonner son projet d'IA de recrutement après avoir découvert que le système discriminait systématiquement les femmes.
L'AI Act vise justement à imposer une réglementation stricte pour les systèmes d'IA à haut risque. Cette législation souligne l'importance de la transparence, de la supervision humaine, et de la gestion des biais pour prévenir les erreurs et discriminations potentielles. En tant qu'utilisateurs ou régulateurs, nous devons donc jouer un rôle actif dans la surveillance de ces technologies, en nous assurant qu'elles respectent ces normes éthiques et légales élevées.
Cette analyse illustre la manière dont l'IA peut optimiser les processus au sein des directions juridiques, tout en nécessitant une supervision attentive pour garantir l'éthique et la conformité réglementaire. Ces discussions s'alignent sur les objectifs du groupe scientifique IA de l'AFJE, qui vise à équiper les juristes des compétences nécessaires pour intégrer judicieusement l'IA dans leurs pratiques. Cette initiative contribue à préparer les juristes à utiliser l'IA de manière responsable et informée, en tenant compte des implications légales et éthiques de ces technologies.
Nos engagements
La meilleure actualisation du marché.
Un accompagnement gratuit de qualité.
Un éditeur de référence depuis 1947.
Des moyens de paiement adaptés et sécurisés.