Règlement sur les services numériques (DSA) #2 - Lutte contre les contenus illicites

Gepubliceerd op 30 april 2024

Download het artikel in PDF-formaat

Depuis 17 février 2024, le règlement sur les services numériques (DSA) s’applique à tous les prestataires de services intermédiaires (fournissant des services de la société de l’information).

  • En fonction du risque généré par leurs activités, des règles plus ou moins sévères leur sont imposées. Une distinction est ainsi faite entre les activités de simple de transport, de mise en cache et d’hébergement et, parmi ces dernières, aux plateformes en ligne, notamment lorsqu’elles mettent en relation des entreprises et des consommateurs. Des exigences plus nombreuses, et particulièrement strictes et détaillées, sont par ailleurs imposées aux très grandes plateformes en ligne et aux très grands moteurs de recherche en ligne (sur ces catégories, voyez la note d’actualité #1).
  • Le régime d’exonération de responsabilité et les mesures visant à lutter contre les contenus illicites méritent une attention particulière.
  • Tous les prestataires de services intermédiaires doivent revoir leurs conditions générales et leurs pratiques pour se conformer aux exigences prévues par le DSA en matière de lutte contre les contenus illicites (et qui présentent de nombreuses différences par rapport aux règles antérieures). Suivant leur qualification, les conditions sont plus ou moins sévères et peuvent impliquer, le cas échéant, la mise en place de procédures de notification et d’action ou de systèmes de traitement des réclamations.

Exonérations de responsabilité

Pour leurs activités de simple transport, de mise en cache et d’hébergement, les fournisseurs de services intermédiaires bénéficient d’une exonération de responsabilité, civile et pénale, et sous condition (comme sous l’empire de la directive sur le commerce électronique) (art. 4-6 du DSA).

De même, aucune obligation générale de surveillance ou de recherche active de faits ou de circonstances révélant des activités illégales ne peut leur être imposée (art. 8 du DSA).

Parmi les principales nouveautés du DSA, on retient la consécration de la « clause du bon samaritain », stipulant clairement que les intermédiaires ne perdent pas le bénéfice des exonérations de responsabilité sous prétexte qu’ils procèdent à des enquêtes volontaires ou qu’ils prennent des mesures pour identifier les contenus illicites de leur propre initiative (art. 7 du DSA).

Les contenus illicites (ou contraires aux conditions générales)

Mesures visant à lutter contre les contenus illicites (ou contraires aux conditions générales)

L’expression « contenu illicite » désigne « toute information qui, en soi ou par rapport à une activité, y compris la vente de produits ou la fourniture de services, n’est pas conforme au droit de l’Union ou au droit d’un État membre qui est conforme au droit de l’Union, quel que soit l’objet précis ou la nature précise de ce droit » (art. 3, h), du DSA).

Un contenu pédopornographique, raciste, ou faisant l’apologie du terrorisme est manifestement illicite. Il en va de même des propos attentatoires à la vie privée ou de la vente de produits contrefaits, même si des discussions peuvent survenir au moment de confirmer le non-respect des règles en vigueur dans un cas d’espèce spécifique.

Pour les victimes de ces contenus, il peut être difficile, voire impossible, d’identifier les auteurs et de les poursuivre. Aussi les intermédiaires ont-ils un rôle capital à jouer, pour lutter contre ces contenus, tout en préservant la liberté d’expression, la liberté d’information et la liberté d’entreprise (et sans censure éventuelle).

Comme on peut l’imaginer, l’équilibre est parfois délicat à trouver.

Quelles mesures visant à lutter contre les contenus illicites (ou contraires aux conditions générales) ?

Plusieurs mesures sont prévues par le DSA.

  • Des mécanismes de notification et d’action doivent être mis en place par certains fournisseurs de services intermédiaires, à savoir les fournisseurs de services d’hébergement. Ils doivent permettre à toute personne de signaler facilement les contenus qu’ils considèrent illicites (« notification »). En termes d’« actions », moyennant la communication d’un exposé des motifs clair à l’attention du destinataire du service, plusieurs mesures peuvent être prises par les prestataires lorsqu’ils considèrent que les contenus sont illicites ou contraires à leurs conditions générales. Elles vont du retrait du contenu à la suppression du compte du destinataire, en passant notamment par la suspension de la fourniture du service (art. 17 du DSA ).
  • Les fournisseurs de services d’hébergement qui sont aussi fournisseurs de plateformes en ligne doivent également prévoir un système interne de traitement des réclamations, pour permettre aux destinataires dont les contenus auraient par exemple été retirés ou aux auteurs d’une notification qui n’aurait pas été suivie d’effets de se plaindre de la décision prise par l’intermédiaire (art. 20 du DSA ). Les réclamations doivent être traitées « en temps opportun » et donner lieu à une décision motivée, qui peut confirmer ou infirmer le verdict initial. Un organe de règlement extrajudiciaire des litiges, certifié par le coordinateur pour les services numériques, peut aussi être saisi (art. 21 du DSA ). Des mesures techniques et organisationnelles doivent par ailleurs être mises en place par les fournisseurs de plateformes en ligne pour faire en sorte que les notifications soumises par des signaleurs de confiance soient prioritaires et se traduisent par des décisions prises dans les meilleurs délais (art. 22 du DSA ). Ce statut est accordé par le coordinateur pour les services numériques compétent à toute entité qui respecte diverses conditions établies par le DSA et tenant, notamment, à son expertise et son indépendance. En cas d’utilisation abusive des plateformes, par des destinataires qui fournissent souvent des contenus manifestement illicites, ou des mécanismes mis en place par le règlement, par des personnes qui soumettent des notifications ou des réclamations manifestement infondées, des mesures de suspension peuvent être prises par les fournisseurs à l’égard des personnes concernées (art. 23 du DSA).
  • Enfin, des injonctions peuvent être prises par les autorités administratives ou judiciaires compétentes à l’égard des intermédiaires pour qu’ils agissent contre des contenus illicites ou qu’ils fournissent certaines informations (art. 10 et 11 du DSA). En parallèle, les fournisseurs de services d’hébergement sont tenus de notifier aux autorités répressives ou judiciaires compétentes les soupçons d’infractions pénales présentant une menace pour la vie ou la sécurité lorsqu’ils ont connaissance de ces informations (suite à une notification, par exemple) (art. 18 du DSA).

Les conditions générales des fournisseurs de services intermédiaires

Diverses informations doivent figurer dans les conditions générales des fournisseurs de services intermédiaires, en lien avec la modération de contenus. Elles doivent ainsi mentionner le recours à des outils d’intelligence artificielle et inclure « des renseignements relatifs aux éventuelles restrictions qu’ils imposent en ce qui concerne l’utilisation de leur service » (art. 14 (1) du DSA). Cette exigence est importante lorsque le prestataire veut interdire des contenus qui ne sont pas nécessairement illicites. On songe aux propos erronés, à caractère sexuel ou susceptibles de choquer les destinataires.

Rapport d’activités

A des fins de transparence, tous les fournisseurs de services intermédiaires doivent établir et mettre à la disposition du public, une fois par an au minimum, un rapport

sur leurs activités de modération des contenus illicites (art. 15 du DSA )[1]. Les fournisseurs de plateformes en ligne doivent y intégrer des informations complémentaires, liées à l’intervention de l’organe de règlement extrajudiciaire des litiges ou aux suspensions prononcées à la suite d’utilisations abusives (art. 24 du DSA). Une couche additionnelle de renseignements doit figurer dans les rapports établis par les très grandes plateformes en ligne et les très grands moteurs de recherche en ligne (sur les ressources humaines dédicacées à la modération des contenus, notamment) (art. 42 du DSA).

[1] Les informations à inclure dans ledit rapport sont fixées par la DSA. Les micro- ou les petites entreprises qui ne sont pas, par ailleurs, des très grandes plateformes, sont exemptées de cette obligation.


Pour davantage d'informations, n'hésitez pas à contacter Hervé Jacquemin.


Suivez nos dernières publications sur LinkdIn