Loi bioéthique : information obligatoire en cas de recours à l'intelligence artificielle

14.09.2021

Droit public

La nouvelle loi de bioéthique introduit une obligation d’information pour les utilisateurs d’une intelligence artificielle (IA) dans le secteur de la santé.

La loi n° 2021-1017 du 2 août 2021 relative à la bioéthique a introduit une obligation d’information à la charge des professionnels utilisant une intelligence artificielle (IA) en matière de santé (C. santé publ., art. L. 4001-3).

Droit public

Le droit public se définit comme la branche du droit s'intéressant au fonctionnement et à l’organisation de l’Etat (droit constitutionnel notamment), de l’administration (droit administratif), des personnes morales de droit public mais aussi, aux rapports entretenus entre ces derniers et les personnes privées.

Découvrir tous les contenus liés

Le professionnel de santé qui décide d’utiliser, pour un acte de prévention, de diagnostic ou de soin, un dispositif médical comportant un traitement de données algorithmique dont l’apprentissage a été réalisé à partir de données massives doit s’assurer que la personne concernée en a été informée et qu’elle est, le cas échéant, avertie de l’interprétation qui en résulte. Les professionnels concernés sont informés du recours à ce traitement de données, les données du patient utilisées dans le traitement algorithmique et les résultats qui en sont issus leur étant accessibles. Il revient également aux concepteurs d’un traitement algorithmique de s’assurer de l’explicabilité de son fonctionnement pour les utilisateurs professionnels.

Un arrêté ministériel doit établir, après avis de la HAS et de la CNIL, la nature des dispositifs médicaux concernés par ces exigences et leurs modalités d’utilisation.

Si la notion d’intelligence artificielle (IA) n’apparaît pas expressément dans le règlement (UE) 2017/745 relatif aux dispositifs médicaux entré en application le 26 mai 2021, elle n’en demeure pas moins susceptible de concerner les dispositifs médicaux constitués de logiciels utilisant des traitements algorithmiques et recourant à des données massives pour l’apprentissage.

A la suite de conclusions du Conseil de l’Union et de résolutions du Parlement européen sur l’intelligence artificielle et la robotique, la Commission a rédigé un Livre blanc intitulé « Intelligence artificielle – Une approche européenne axée sur l’excellence et la confiance » (COM/2020/ 65 final). Le 21 avril 2021, elle a publié une proposition de règlement établissant des règles harmonisées concernant l’intelligence artificielle (COM/2021/206 final).

Un système d’intelligence artificielle y est défini comme un logiciel qui est développé au moyen d’une ou plusieurs des techniques et approches énumérées en annexe et qui peut, pour un ensemble donné d’objectifs définis par l’homme, générer des résultats tels que des contenus, des prédictions, des recommandations ou des décisions influençant les environnements avec lesquels il interagit.

La proposition de règlement prévoit des règles spécifiques applicables aux systèmes d’IA qui présentent un risque élevé pour la santé, la sécurité ou les droits fondamentaux des personnes physiques. Selon une approche fondée sur les risques, ces systèmes d’IA à haut risque sont autorisés sur le marché européen à la condition de respecter des exigences obligatoires et une évaluation ex ante de leur conformité.

Les systèmes d’IA destinés à être utilisés en tant que composants de sécurité de produits réglementés par des actes du nouveau cadre législatif – tel le règlement (UE) 2017/745 sur les dispositifs médicaux – ont vocation à être soumis aux mêmes mécanismes ex ante et ex post de mise en conformité et de contrôle que ceux applicables aux produits dont ils sont des composants.

Jérôme Peigné, Professeur à l'Université de Paris
Vous aimerez aussi

Nos engagements