DSA : «le texte impose des responsabilités mais donne aussi des pouvoirs» aux plateformes

DSA : «le texte impose des responsabilités mais donne aussi des pouvoirs» aux plateformes

22.06.2022

Gestion d'entreprise

Quelles seront les nouvelles obligations imposées aux plateformes, dont les marketplaces, avec l'adoption du digital services act (DSA) ? Le point avec Luc-Marie Augagneur, avocat associé chez Cornet Vincent Segurel, qui nous décrit un texte à la dimension B to B autant que numérique.

Le parcours législatif touche à sa fin. La semaine dernière le compromis arreté en trilogue sur la proposition de règlement visant à la mise en place d'un marché unique en matière de services numériques, plus connu sous l'acronyme de DSA, était adopté en COREPER (le 15 juin) puis en commission au Parlement européen (le 16 juin). Deux étapes ultimes sont désormais nécessaires avant que le règlement soit publié au journal officiel de l'UE pour devenir directement applicable au sein des Etats membres. Dès le mois de juillet, les députés européens se prononceront formellement, en plénière, sur ce texte de compromis. Avant que le Conseil de l'UE, à son tour, l'entérine en septembre. Les dispositions du DSA imposeront de nouvelles obligations aux plateformes 15 mois après l'entrée en vigueur du règlement européen, soit probablement en 2024. 

Pouvez-vous nous contextualiser le DSA ?

Ce texte est l’un des piliers du droit des plateformes numériques que sont les réseaux sociaux, les places de marché et toutes formes d’outils numériques qui mettent en relation plusieurs catégories d’utilisateurs. Ce droit est actuellement en cours d’élaboration au niveau de l’UE. Il comprend, en plus du DSA, la proposition sur le Digital Markets Act (DMA) – la régulation dans le domaine de la concurrence portant sur les plateformes essentielles qui agissent comme des portes d’entrée du marché (gatekeepers) – et le règlement dit « platform to business » entrée en application en juillet 2020 qui vise à réguler les relations entre les plateformes et les utilisateurs professionnels.  

Le DSA s’intéresse à la modération par les plateformes des contenus illégaux, c’est-à-dire les questions de haine en ligne, de harcèlement, de pédopornographie sur les réseaux sociaux, mais aussi de contenus contrefaisants, ou de diffamation, de dénigrement ou encore de publicité trompeuse, par exemple. Mais cela inclut également la proposition de produits et services non-conformes, c’est-à-dire qui ne respectent pas les règles européennes en matière de sécurité et de mise sur le marché, etc. Le statut de ces intermédiaires n’est pas totalement nouveau puisque la directive de 2000 sur le commerce électronique définissait déjà la responsabilité des hébergeurs de contenus qui n’ont pas de rôle actif dans leur édition. Il s’agissait d’une responsabilité allégée limitée au prompt retrait d’un contenu signalé comme illégal. Le DSA précise ce cadre et l’adapte à l’environnement de l’économie des plateformes, notamment au regard de la place prise par les algorithmes dans la modération de ces contenus.

Les plateformes sont amenées à être « juge » de ce qu’il se passe sur leurs interfaces. Elles sont à la fois des « procureurs » chargées en partie de la détection des contenus illégaux puis « juge » car elles doivent, dans certains cas, prendre une première décision : celle de retirer un contenu avant même une décision de justice. Le texte leur impose des responsabilités mais leur donne aussi des pouvoirs. Elles devront mettre en balance les droits des personnes qui souhaitent le retrait d’un contenu et des utilisateurs l’ayant mis en ligne (l’éditeur ou le vendeur d’un produit, par exemple). Leurs décisions devront être motivées, fondées juridiquement (disposition légale ou conditions générales de la plateforme) et rendues publiques. En amont, des règles suffisamment claires et transparentes sur la modération de contenus devront avoir été établies.

Quelles seront les nouvelles obligations des plateformes à la suite de la publication du DSA ?

Le texte met en place une gradation du niveau des exigences en fonction de la taille des plateformes. Le niveau de référence s’imposera à toutes les plateformes, sauf pour les plus petites (PME au sens du droit européen) qui seront exonérées de certaines obligations. A l’inverse, des obligations plus approfondies seront applicables pour les très grandes plateformes (qui réunissent plus de 45 millions d’utilisateurs actifs mensuels dans l’UE). Elles devront en particulier évaluer en amont de potentiels risques systémiques en matière de contenus illégaux à travers la production d’études d’impact rendues publiques. Elles devront aussi s’intéresser aux effets négatifs de la modération sur les droits fondamentaux tels que la vie privée, la liberté d’expression, la non-discrimination, etc. De même qu’aux manipulations intentionnelles des services de la plateforme ou aux effets négatifs de leur utilisation sur la santé des mineurs, etc. Elles devront encore procéder à des audits de risques. Et redoubler de transparence ainsi que mettre davantage d’informations à la disposition des utilisateurs.

Dans le traitement des contenus illégaux, un rôle est confié à des « signaleurs de confiance ». Pouvez-vous nous en dire davantage ?

Ce sont des organismes tiers indépendants qui auront été certifiés par des autorités. Leurs signalements aux plateformes devront faire l’objet d’une prise en compte prioritaire. Une forme de gouvernance nouvelle est ainsi imposée par le futur règlement. Ces organisations de la société civile représentant des intérêts collectifs se verront ainsi reconnaître des droits spécifiques.

Concernant les algorithmes de modération, que prévoit le futur règlement ?

Au-delà de l’enjeu de la transparence des algorithmes eux-mêmes, se pose celui de savoir à quel moment la décision de retirer un contenu illégal est prise directement par l’algorithme qui l’aurait détecté. Le texte autorise, à la fois au stade de la détection des contenus et jusqu’à leur modération, que les décisions soient prises sur une base exclusivement algorithmique. L’intervention humaine n’est donc pas obligatoire au moment de la recherche des contenus illégaux et de la première étape de la modération. Au stade du retrait des contenus, il sera toutefois nécessaire d’apporter l’information selon laquelle la décision a été prise par un moyen algorithmique. C’est seulement au stade du recours contre cette décision par la personne ayant vu son contenu retiré qu’une intervention humaine devient obligatoire. Le texte entérine donc le fait que jusqu’à un stade relativement avancé une décision puisse être prise par un algorithme.

Sur le contenu de l’algorithme en lui-même, se confrontent un droit de propriété intellectuelle et la nécessité de pouvoir vérifier ses biais de fonctionnement. Ces biais peuvent favoriser certaines situations. Une plateforme n’est pas complètement neutre, même si beaucoup estiment l’être. Ce que prévoit le texte, pour les très grandes plateformes, c’est un principe d’accessibilité aux principes de fonctionnement des algorithmes. La Commission européenne ou les États membres pourront ainsi avoir un droit d’accès partiel à ces algorithmes pour réaliser des audits. 

D’une façon plus générale, le DSA s’efforce de réduire la dépendance des utilisateurs aux algorithmes. Les plateformes devront ainsi révéler les principaux paramètres des algorithmes de recommandation, ainsi que les options de paramétrage, tout en offrant la possibilité de les désactiver.

Pouvez-vous nous décrire les obligations spécifiques liées aux places de marché ?  

Elles concernent toutes les plateformes qui permettent la conclusion de contrats à distance. Les places de marché sont généralement des hébergeurs de contenus qui ne sont pas responsables de plein droit. Néanmoins, à chaque fois que le consommateur pourrait raisonnablement penser que le produit est fourni par la plateforme - quand il y aura une ambiguïté sur le point de savoir s’il s’agit ou non d’un vendeur tiers -, alors elle sera responsable de plein droit des règles de protection des droits du consommateur. Le DSA crée surtout des obligations de vigilance et de contrôle imposées aux marketplaces à l’égard des vendeurs. Elles devront ainsi collecter toutes les informations relatives à l’identité des vendeurs (coordonnées, immatriculation au RCS, informations bancaires, etc.). Elles devront aussi réaliser leurs meilleurs efforts pour vérifier l’exactitude et l’exhaustivité des informations sur les produits et services. Leurs interfaces devront donc assurer aux vendeurs la possibilité de respecter leurs obligations quant à la sécurité des produits, par exemple. Les plateformes devront encore fournir des efforts raisonnables pour contrôler aléatoirement si les produits et services ont été identifiés comme illégaux dans une base de données officielle (produits déclarés comme contrefaisants par les douanes, par exemple). De même, si un contenu illégal est identifié, les très grandes plateformes auront à en informer personnellement les consommateurs. 

Le texte prévoit aussi des sanctions pour les « dark patterns ». La construction de la plateforme doit empêcher toute manipulation ou altération de la capacité des consommateurs à prendre des décisions libres et éclairées. Il s’agit de veiller à ce que le consentement ne soit pas biaisé par des stratégies qui pourraient inciter de manière déloyale les consommateurs à acheter. Des lignes directrices seront proposées par la Commission en la matière.

Quelles sont les sanctions prévues ?

Elles peuvent aller jusqu’à 6 % du chiffre d’affaires mondial. La Commission européenne sera compétente pour prononcer ces sanctions à l’égard des très grandes plateformes.

 

 

 

 

Propos recueillis par Sophie Bridier

Nos engagements