Les problématiques juridiques qui naissent avec l’intelligence artificielle

Les problématiques juridiques qui naissent avec l’intelligence artificielle

25.01.2017

Gestion d'entreprise

Loin d’un scénario à la Terminator, la responsabilité civile des préjudices causés par les robots intelligents commande une adaptation des régimes existants.

Vendredi dernier, le plan France intelligence artificielle était dévoilé par la secrétaire d’État chargée du Numérique et de l’Innovation, Axelle Lemaire et par Thierry Mandon, son homologue à l’Enseignement supérieur et de la Recherche. Ils lançaient l’organisation de groupes de travail pour définir la stratégie de l’Hexagone sur cette thématique en vogue. L’intelligence artificielle (IA) fait peur à certains. Steve Wozniak, le confondateur d’Apple prédit déjà qu’elle sera à l’origine d’un « futur effrayant », dans lequel les humains deviendraient des « animaux domestiques » ou « seraient écrasés comme des fourmis » par les robots. D’autres y voient une véritable menace sur l’emploi. Tandis que les plus optimistes restent positifs. L’intelligence artificielle pourrait nous rendre la vie plus simple, avec le développement de robots assistants, capables de nous indiquer comment nous habiller le matin, en fonction du temps et des rendez-vous à l'agenda. Elle serait aussi capable d’assurer la paix des ménages en prenant en main les cadeaux d’anniversaires ou de saint valentin…

La sphère du droit n’échappe pas à l’intelligence artificielle. Le robot Ross, développé par IBM, est capable d’effectuer des recherches de jurisprudences pour le compte d’un avocat qui lui pose directement une question de droit. Il est utilisé par des cabinets d’affaires américains, comme Dentons, Latham & Watkins ou encore BakerHostetler. Les legal tech, aussi, auraient recours à l’intelligence artificielle. Dans une récente PDF iconétude, le cabinet Day One a identifié 20 start-up du droit - parmi 140 étudiées - qui utiliseraient une technologie d’IA poussée, telle que du machine learning, du natural language processing, du patern mining, etc. Encore minoritaire, le développement de l’IA dans les métiers du juridique poursuit sa route.

Quel régime de responsabilité envisager ?

Quel que soit le pan de l’économie où l’intelligence artificielle se développera, elle fera naître des questions de droit. La semaine dernière, lors d’un petit-déjeuner sur le thème de l’AI et du langage, l’avocat fondateur de Alto Avocats, Arnaud Touati, spécialisé dans le secteur des start-up et des nouvelles technologies, est revenu sur l’affaire Tay. En mars 2016, Microsoft lançait un agent conversationnel ou chatbot, capable de discuter avec des internautes sur twitter en apprenant le langage. Dans la peau d’une adolescente, Tay avait envoyé 96 000 tweets en 8 heures. Au contact d’internautes, elle avait répété et prononcé, de son plein gré, des phrases racistes, négationnistes ou d’une extrême vulgarité (voir l’article du Monde). Dès lors, qui devra être rendu responsable de propos pénalement répréhensibles tenus par des robots ? Autre exemple, dans le domaine des transports cette fois-ci : imaginons qu’un accident mortel soit causé par une Google car. La responsabilité devra-t-elle être cherchée du côté du constructeur ou de son propriétaire ? Ou faut-il envisager un partage de responsabilités ? L’avocat pose les questions.

Pour lui les régimes de responsabilité civile existant en droit français sont inadaptés. Tant le régime de la responsabilité extracontractuelle - l’identification d’un trop grand nombre de responsables apparaît impossible avec l’affaire Tay -, que celui du fait des choses - qui commande d’en avoir la garde, or l’AI se veut « autonome » -, ou encore celui des produits défectueux - qui nécessite un bien matériel, une forme que ne prend pas toujours l’AI. L’avocat préconise alors d’adapter la responsabilité du fait des choses ou des parents du fait de leurs enfants, en élargissant leur champ d’application et en faisant disparaître la notion de contrôle. Une « solution alternative peut aussi être trouvée dans le partage de responsabilité », poursuit-il.

Le robot doit-il être doté d’une personnalité juridique ?

« La question de la responsabilité civile de l’AI amène nécessairement à celle de sa personnalité juridique », explique Arnaud Touati. Accorder une personnalité juridique au robot pourrait permettre, comme il en est le cas pour les sociétés - SARL ou SA par exemple -, d’instaurer une responsabilité puis de définir une chaîne de responsables, propose un intervenant au petit-déjeuner. Mais pour l’avocat, « une déresponsabilisation des acteurs à l’origine du robot », serait alors à craindre.

Sur ces problématiques, les députés européens travaillent. Le 12 janvier, en commission des affaires juridiques, ils ont adopté le rapport de Mady Delvaux (S&D, Luxembourg). Elle y invite la Commission européenne à prendre une initiative législative sur la règlementation des robots. Elle y évoque la « possibilité de créer un statut juridique spécial de personnes électroniques pour les robots les plus sophistiqués afin de clarifier les responsabilités en cas de dommages ». La députée propose aussi que « le futur instrument législatif prévoie l’application par défaut de la responsabilité stricte, en vertu de laquelle il suffit d’apporter des preuves des dommages et de la relation de cause à effet entre les dommages et le comportement dommageable du robot ». Son rapport précise ensuite « que la responsabilité de chacun devrait être proportionnelle au niveau réel d’instructions données au robot et à l’autonomie de celui-ci ; dès lors plus un robot est autonome ou plus sa capacité d’apprentissage est grande, moindre devrait être la responsabilité des autres parties ». Enfin, pour réparer les dommages causés par des robots au fort degré d’autonomie, est envisagée « la mise en place d’une assurance obligatoire, comme c’est le cas, entre autres, pour les automobiles », complétée par un fonds d’indemnisation capable d’accorder les dommages et intérêts dus. Dotée d’une personnalité juridique, la responsabilité des robots les plus sophistiqués pourrait ainsi se voir garantie. Celle des robots sous influence humaine passerait par une responsabilité simple.

Entre fantasmes et réalité

Le rapport doit désormais être adopté par les députés en plénière, afin que le message puisse être envoyé à l’exécutif européen. Dans une étude pour la commission des affaires juridiques, la direction générale des politiques internes du Parlement européen s’est montrée très critique à l’égard de l’émergence d’une personnalité juridique des robots qui lui semble « inopportune et malvenue ». « Les partisans de la personnalité juridique ont une vision fantasmée du robot, marquée par les romans ou le cinéma de science-fiction », peut-on lire dans l'étude.

La legal tech Predictice témoigne de ce qui se fait pour l’instant. « Les contrats [signés avec leurs clients] imposent une responsabilité qui de fait engendre un régime assurantiel », décrit Louis Larret-Chahine, le fondateur de Predictice. Dans le cas où l’algorithme, que la start-up vend, connaîtrait des dysfonctionnements, elle pourrait être à l’origine d’un préjudice dont cherche à se prémunir l’équipe mais également ses concontractants. Pour autant « à l’heure actuelle, la prime d’assurance n’est pas calculable », conclut-il.

Le débat ne fait donc que commencer.

Sophie Bridier

Nos engagements