L'intelligence artificielle au coeur d'un rapport de l'OPECST

03.07.2017

Droit public

L'Office parlementaire d'évaluation des choix scientifiques et technologiques (OPECST) présente les enjeux éthiques, juridiques, économiques, sociaux et scientifiques des systèmes d'intelligence artificielle (IA). Il se prononce pour une IA maîtrisée, utile et démystifiée.

Dans un imposant rapport de deux tomes et de plus de 500 pages, enregistré le 15 mars 2017, l’OPECST établit un état des lieux de la recherche, de l’innovation et des questions éthiques, juridiques, techniques et sociales en Intelligence artificielle. La richesse du rapport ne permet pas d’en rendre compte ici de manière exhaustive. Quelques traits saillants seront seuls restitués.

Définitions et applications
Les rapporteurs poursuivent d’abord un souci pédagogique et fournissent des définitions, comme celle de l’« algorithme » : « un ensemble de séquences d’opérations […] une suite finie et non ambiguë d’opérations ou d’instructions permettant, à l’aide d’entrées, de résoudre un problème oud’obtenir un résultat ».
Quant à l’IA, elle est replacée dans un continuum avec l’informatique : « l’informatique classique traite traditionnellement de questions résolues par des algorithmes connus, alors que l’intelligence artificielle s’intéresse plutôt aux problèmes pour lesquels aucun algorithme satisfaisant n’existe encore ». Ainsi « dès que le problème a été résolu par une technologie dite d’intelligence artificielle, l���activité correspondante n’est plus considérée comme une preuve d’intelligence de la machine ».
En démystifiant le vocabulaire, le rapport entend restituer une vision réaliste d’un domaine plein de promesses, sans technophilie ni technophobie. Il s’agit de « dépasser les peurs et les inquiétudes exprimées en vue d’engager un débat public plus serein », car les rapporteurs sont convaincus que les retombées seront globalement positives.
Les innovations dans les domaines du traitement du langage naturel, de la vision (ou traitement du signal), de l’apprentissage automatique, des systèmes multi-agents, et de la robotique sont donc passées en revus. Leurs applications concernent des secteurs aussi importants que variés : notamment, la santé, la robotique, les transports, la traduction, l’ingénierie, la gestion, l’éducation… A titre d’exemples, dans le domaine du handicap et des interfaces homme-machine, le rapport évoque des « systèmes capables de voir des images et d’en décrire le contenu pour les aveugles », des « exosquelettes robotisés », « une prothèse de main capable d’interpréter les signaux envoyés par les muscles résiduels de l’utilisateur… 
Informer le grand public : un objectif crucial
Parmi les quinze propositions du rapport, plusieurs visent à mieux informer, « former » et « sensibiliser » le grand public , que ce soit en matière d’informatique, d’IA ou de robotique, mais aussi à « être vigilant sur les usages spectaculaires et alarmistes du concept d’intelligence artificielle et de représentation des robots » . Pour cela, le rôle des scientifiques est primordial, tant dans la transmission des informations – afin d’éviter que des promesses exagérées ne soient prises au sérieux ou que des scenarios de science-fiction ne soient tenus pour des descriptions réalistes –, que dans l’alerte. De fait, nombreux ont été les scientifiques signataires de la lettre ouverte appelant en janvier 2015 à prendre conscience des dangers potentiels d’un mauvais usage de l’IA (lettre également mentionnée dans la synthèse du rapport). Cet objectif d’information du public et de « débat public serein » est jugé crucial, mais il ne résume pas l’effort de réflexion mené dans ce rapport. On y trouve, en effet, de longs et denses développements sur les enjeux éthiques et juridiques du recours de plus en plus fréquent aux programmes automatisés intégrant un traitement algorithmique.
Questionnement juridique
Les questions juridiques évoquées sont de plusieurs ordres : application du droit de la propriété intellectuelle pour des processus de création « partiellement assurés par une machine ou un système d’intelligence artificielle » ; réglementations de la mise sur le marché des machines et des dispositifs intégrant un traitement algorithmique (faut-il étendre les prévisions en matière de certification ? ) ; protection des consommateurs contre des dysfonctionnements  ; protection de la vie privée et application des textes en matière de traitement des données personnelles ; régimes de responsabilité ; assurance.
Les ressources du droit positif français et européen ne sont pas ignorées et le rapport se distancie d’une analyse trop rapide consistant à dénoncer un vide juridique à chaque innovation technique. Les inadaptations ne sont, pour autant, pas passées sous silence et des évolutions sont jugées nécessaires.
Assurance
Il en va, par exemple, ainsi en matière d’assurance pour les véhicules autonomes : les rapporteurs rejoignent sur ce point la résolution du Parlement européen adoptée le 16 février 2017 (inspirée des propositions de Mme Mady Delvaux) et estiment qu’il « conviendrait de réfléchir à la possibilité d’instituer des systèmes d’assurance spécifiques, voire des assurances obligatoires.
Responsabilité
En matière de responsabilité, outre un renvoi aux prévisions contractuelles , le rapport évoque les limites de la responsabilité du fait des produits pour « des robots de nouvelle génération dotés de capacité d’adaptation et d’apprentissage et dont le comportement présente un certain degré d’imprévisibilité » et l’inadaptation du régime de la responsabilité du fait des choses puisqu’il y est fait référence à un gardien ayant un « pouvoir de contrôle, de direction et d’usage » alors qu’il paraît difficile d’avoir la direction et le contrôle « des systèmes d’intelligence artificielle autonomes, de surcroît non matérialisés physiquement ».
La piste d’un système de « responsabilité civile en cascade » est jugée intéressante : « dans la mesure où trois ou quatre acteurs sont en présence (le producteur de la partie physique du robot, le concepteur de l’intelligence artificielle, l’utilisateur et s’il est distinct de ce dernier, le propriétaire), il est possible […] que chacun puisse supporter une part de responsabilité selon les circonstances dans lesquelles est survenu le dommage ». A l’inverse, la proposition de créer une personnalité juridique pour les robots (suggérée par A. Bensoussan et retenue notamment dans la résolution du Parlement européen précité) est fermement écartée. Non seulement, il faut cesser de se référer aux « lois d’Asimov » et se déprendre des fausses impressions créées par des discours fictionnels et par une sémantique inspirée de la biologie (réseaux de neurones artificiels, singularité, algorithmes génétiques, intelligence, émotion…), mais il est important « d’identifier des pistes qui ne fassent pas courir le risque de déresponsabiliser les acteurs du secteur, à commencer par les industriels de la robotique ». De plus, « dans la mesure où le système d’intelligence artificielle pourrait migrer d’un corps robotique à un autre, la partie physique du robot ne serait qu’un contenant, destiné à recevoir pour un temps donné un système ».
Sécurité des utilisateurs
Pour ce qui est de la sécurité des consommateurs, et plus largement des utilisateurs, le rapport insiste sur l’importance de disposer d’algorithmes et de robots « sûrs, transparents et justes » . Ceci se décline sur le terrain éthique par l’appel à rédiger une « charte de l’intelligence artificielle et de la robotique », qui reprend nombre des suggestions formulées par la Commission de réflexion sur l’Éthique de la Recherche en sciences et technologies du Numérique d’Allistene (CERNA). Ces suggestions pourraient aisément être transcrites sur le terrain juridique, notamment l’idée de disposer systématiquement d’une possibilité matérielle d’« interruption d’un système d’intelligence artificielle ou d’un robot » ou l’appel à accroître la « transparence » et « l’explicabilité » des traitements algorithmiques par des « mécanismes de traçabilité, du type journaux de bord ». Toutefois, il faut ici remarquer que le rapport ne traite ces pistes de solution que sur les terrains de la technique (développer les recherches et les solutions pour que cela soit systématiquement possible) et de l’éthique (prévoir ces exigences dans une charte).
De même, la protection de la vie privée est certes envisagée par le biais des textes juridiques – Loi Informatique et Libertés et Règlement (UE) 2016/679 sur la protection des données personnelles, notamment –, mais les pistes de solutions favorisées dans le rapport concernent plutôt la « privacy by design », c’est-à-dire l’intégration dès la conception et dans les normes techniques des valeurs morales et sociales. Ces remarques ne sont pas anodines, car les pages consacrées dans le rapport aux ressources juridiques ne camouflent pas une relative défiance vis-à-vis du droit.
Un encadrement par la régulation plutôt que par le droit
La formulation de la première proposition est sur ce point révélatrice : les parlementaires appellent à « se garder d’une contrainte juridique trop forte sur la recherche en intelligence artificielle, qui – en tout état de cause – gagnerait à être, autant que possible, européenne, voire internationale plutôt que nationale ». Dès le début du rapport, il est question de « ne pas céder à la tentation de définir un cadre juridique contraignant » et c’est le terme de « régulation » qui est retenu et valorisé. Sur ce point, les parlementaires étonnent, car ils semblent retenir une vision excessivement réductrice des effets du droit. Le principe de précaution est ainsi qualifié de « stérilisant », alors que la jurisprudence et les travaux de la doctrine ont montré qu’ils n’appelaient pas à autre chose qu’à un accroissement de la recherche et à un système de décision informé en situation de risque incertain. N’est-ce pas précisément ce à quoi appelle l’OPECST en déroulant les propositions pour accroître les recherches en matière de logiciels auto-apprenants et de « transparence » des algorithmes ? De même, il est difficile de comprendre cette faveur pour la régulation – c’est-à-dire pour le recours aux normes techniques et aux guides de bonnes pratiques – lorsque l’on mesure la part d’influence que les grands groupes industriels peuvent exercer dans les lieux où ces normes sont élaborées. La norme juridique a une légitimité démocratique dont ces dernières sont dépourvues. De ce point de vue, il peut paraître contradictoire de mettre en avant le débat public et le choix démocratique tout en dévalorisant le droit par rapport aux autres normativités. Des rapports européens antérieurs avaient témoigné de cette même défiance pour le droit (par ex. Rapport issu de la Conférence internationale organisée par le Comité de Bioéthique (DH-BIO) du Conseil de l’Europe : « Technologies émergentes et Droits de l’homme », 4-5 mai 2015, p. 15). On ne peut qu’être déçu que les parlementaires se laissent gagner à leur tour. Le traitement du droit comparé par tableaux synthétiques dans le tome II est symptomatique de la dérive, réductrice et peu satisfaisante, à l’œuvre.
Des intérêts économiques prédominants ?
Ce regret tempère l’intérêt que l’on peut porter à un rapport pourtant fort éclairant par ailleurs. Il fait craindre que les intérêts économiques – dominants en matière d’informatique, d’Internet et d’IA ne finissent pas prendre le pas sur d’autres considérations, y compris en les instrumentalisant. Le rapport n’ignore pas que les grandes entreprises du secteur (notamment les fameux GAFAMI, pour Google, Amazon, Facebook, Apple, Microsoft et IBM) ont pris des positions « vertueuses » pour mieux affermir leurs parts de marché. Aussi est-il insatisfaisant que le rapport prétende laisser « au second plan » les enjeux financiers, économiques et industriels et prioriser les questions éthiques, juridiques, sociales et techniques, tout en mobilisant constamment les premiers. Dans ses développements comme dans la motivation des propositions, les arguments économiques et de compétitivité apparaissent prégnants. Ce sont d’ailleurs des arguments de ce type qui conduisent à reléguer le droit au rang des instruments obsolètes ou inadaptés. Ils figurent en bonne place parmi les justifications de la proposition n° 1 : « Des mesures trop contraignantes auraient pour effet d’augmenter les coûts de commercialisation et de mise en conformité, ou de poser de nouveaux freins légaux à l’innovation et à la rentabilité de ces secteurs d’activité » ; « la France dispose d’atouts considérables en matière de recherche en intelligence artificielle et ne doit pas perdre cet avantage comparatif, au risque de se placer hors-jeu dans la compétition internationale ». A ce compte, peu de limites pourront être imposées.

Droit public

Le droit public se définit comme la branche du droit s'intéressant au fonctionnement et à l’organisation de l’Etat (droit constitutionnel notamment), de l’administration (droit administratif), des personnes morales de droit public mais aussi, aux rapports entretenus entre ces derniers et les personnes privées.

Découvrir tous les contenus liés
Sonia Desmoulin-Canselier, chargée de recherche CNRS, université de Nantes, Droit et Changement Social, associée à l'UMR Institut des Sciences Juridique et Philosophique de la Sorbonne
Vous aimerez aussi

Nos engagements