Loi Avia « contre la haine sur internet »
Annulée ou reportée après le quinquennat
Annulée ou reportée après le quinquennat
Transparence

Loi Avia « contre la haine sur internet »

Procédure suivie

Parcours législatif avec procédure d'urgence

20 mars 2020
En cours de procédure
13 mai 2020
Mise en place
18 juin 2020
Annulée ou reportée après le quinquennat

Promesse

Projet

Texte final

Pas de promesse sur le sujet

  • La proposition de loi « contre la haine sur internet » est déposée à l’Assemblée de 20 mars 2019.

La version finalisée du texte a été adoptée le 13 mai dernier, juste à la sortie de deux mois de confinement. En ressort une loi aux sanctions hors-normes. Dès le 18 mai, le Conseil constitutionnel a été saisi et son avis est très attendu car bon nombre estiment que cette nouvelle loi empiète largement sur la liberté d’expression et va, potentiellement, généraliser une forme de censure.

Un premier volet de la loi a pour objectif la prévention : elle impose donc aux acteurs principaux du net (notamment les réseaux sociaux) de mettre en place une politique de lutte contre la haine (avec des boutons pour signaler les contenus problématiques, ce qui est déjà généralisé) et des formations à « l’utilisation responsable » des réseaux. En parallèle, un observatoire de la haine en ligne va être créé pour suivre ces questions.

Depuis 2004 et la loi « pour la confiance dans l’économie numérique », les acteurs du web sont déjà invités à supprimer promptement les contenus haineux, illicites ou problématiques (sans délai obligatoire) à moins d’engager leur propre responsabilité. 16 ans plus tard, la loi Avia apporte un volet punitif très lourd qui, si la loi passe le Conseil constitutionnel, devrait être effectif en un temps record. Soit dès le 1er juillet 2020 (un délai de mise en place qui fait douter après l’expérience RGPD). Un décret serait attendu pour déterminer un seuil (de fréquentation ? de publication ? de chiffres d’affaires ?) des sites web concernés par les délais et les sanctions. Clairement, sont en ligne de mire les géants du web et les réseaux sociaux comme Facebook et Twitter… mais peut-être aussi Google (ce qui reviendrait potentiellement à limiter les remontées du moteur de recherche).

Ainsi, dès le 2 juillet, si un ou des utilisateurs estiment qu’un contenu est « manifestement illicite », ils doivent le signaler au site hébergeant ce contenu : celui-ci aura, alors, 24 heures pour le supprimer (1h pour les contenus terroristes ou pédopornographiques) au risque de s’exposer à une amende pouvant aller jusqu’à 1,25 million d’euros. En cas de non-respect de « l’obligation de retrait » du contenu dans le délai imparti, les hébergeurs et/ou fournisseurs d’accès internet devront suspendre l’accès au site. Pour limiter les remontées abusives, une peine de prison d’un an et une amende de 15.000 euros pourront être prononcées.

  • La loi est adoptée le 13 mai 2020 à la suite d’une Commission mixte paritaire et le Conseil constitutionnel est saisi.
  • Le Conseil constitutionnel déboute la loi le 18 juin 2020.
Comprendre l'appréciation de l'iFRAP

Qui va déterminer le caractère illicite des contenus ? Alors qu’une plainte pour injure, incitation à la haine ou discrimination va être traitée par la justice sur de nombreux mois, sur internet, les modérateurs des géants du web auront à peine 24h pour « juger » d’un contenu. Le tout en sachant, pour Facebook par exemple, que 27 millions de Français se connectent chaque jour sur le réseau pour, en face, 15.000 modérateurs bien moins formés que des juges (aux États-Unis, la formation pour devenir modérateur dure 4 semaines). Si la loi prévoit l’existence d’un parquet et d’une juridiction spécialisés, les délais sur leur création et leur rôle ne sont pas très clairs.

Le risque ? Que les sites web se reposent sur des algorithmes pour trier, dans les délais impartis, la masse de notifications sur les contenus problématiques : grosso modo, c’est déjà ce qui se fait et aujourd’hui, les suppressions sont relativement rares… Mais face aux sanctions très lourdes et aux délais très courts, elles risquent de devenir la norme au moindre doute ou à partir d’un certain niveau de notifications. Le début d’une censure systématique en fonction de mots-clés à cause d’un dispositif mal pensé et trop automatique ?