Lutte contre les contenus haineux sur le web : chronique d’un échec annoncé<!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
Société
Lutte contre les contenus haineux sur le web : chronique d’un échec annoncé
©LIONEL BONAVENTURE / AFP

Appel de Christchurch

Les grands patrons des entreprises de la tech et les responsables politiques se réunissent ce mercredi 15 mai à Paris pour travailler notamment à l'établissement d'une charte pour lutter contre la haine en ligne.

Olivier Ertzscheid

Olivier Ertzscheid

Olivier Ertzscheid, né en 1972, est un chercheur français en sciences de l'information et de la communication, qui enseigne en tant que maître de conférences à l'université de Nantes et à l'Institut universitaire de technologie de La Roche-sur-Yon.

Voir la bio »

Atlantico : Un plan construit par la France et la Nouvelle-Zélande devrait être dévoilé demain pour lutter contre la haine sur Internet, appelant tous les pays à renforcer leurs lois pour bannir les contenus inappropriés des réseaux sociaux. Comment sont définis aujourd'hui les contenus haineux et quelles dispositions existent déjà pour les combattre ?

Olivier Ertzscheidt : Tout le problème est là. Les contenus haineux sont par définition assez flous à l'échelle des plateformes. En France, il y a des types d'expression racistes, homophobes, antisémites, qui tombent sous le coup de la loi. Le problème est de qualifier ces expressions-là quand elles sont exprimées à l'échelle des plateformes sociales, sachant que les législations sont différentes selon les pays. Les réseaux sociaux suivent la législation en vigueur dans le pays des utilisateurs concernés. Mais le problème, c'est que l'application de la loi par ces plateformes n'est pas techniquement toujours possible et humainement toujours garantie puisqu'il n'y a pas suffisamment de modérateurs pour identifier ces contenus haineux. Ou, quand des signalements sont effectués, les entreprises mettent souvent très longtemps à réagir : certaines plus que d'autres – Facebook agit beaucoup plus vite que Twitter sur les contenus haineux.

On sait définir ce qu'est un contenu haineux – même si cela diffère selon les pays. Pour traiter le suprématisme blanc, Facebook vient de mettre à jour ses règles de modération pour supprimer les comptes des gens qui sont des suprématistes blanc. Il a malheureusement fallu le massacre de Christchurch pour en arriver là : il est un peu dommage, à l'échelle de 2 milliards et demi d'individus, que Facebook attende le massacre de 51 personnes par un suprématiste blanc pour comprendre qu'il peut être une idéologie problématique et meurtrière.

Face à la légitime désapprobation de certains actes et de certains contenus sur les réseaux sociaux, il y a la nécessité de défendre la liberté d'expression. Vous semble-t-il possible de légiférer sur ces questions sans entamer le droit de s'exprimer ? À quelles conditions ?

C'est tout le pacte faustien. Si l'on commence par ne serait-ce qu'entrebâiller que ce sont les plateformes qui définissent ce qu'il est possible ou non de dire, à ce moment-là, on fait entrer le loup dans la bergerie et on force l’État de droit puisqu'on confie à des opérateurs privés ce qui peut être dit. Dans certains pays, 80 à 90% de la population est inscrite sur Facebook. On ne peut plus considérer aujourd'hui que Facebook est autre chose qu'un espace public. Aujourd'hui, dans toutes les rapports et les recommandations, on continue de traiter Facebook comme une entreprise privée avec des règles qui s'appliquent seulement à ses utilisateurs, sauf que Facebook n'est plus du tout dans cette configuration-là. Il faut appliquer à Facebook les règles applicables dans un espace public. Cela passe par l'obligation de contraindre le réseau social à expliciter totalement ses règles de modération algorithmique : ce qu'on appelle l'éditorialisation algorithmique. On a trop longtemps refusé de voir que l'algorithme est aussi un travail d'éditorialisation. Facebook a récemment ouvert une bibliothèque des publicités politiques pour que les gens puissent voir qui paie pour les publicités : si on ne sait pas comment sont ciblées ces publicités, quels sont les gens que Facebook permet d'atteindre avec son algorithme, on est incapable d'identifier des actions d'ingérence politique. Il faut arriver à traiter Facebook comme ce qu'il est, c'est-à-dire aujourd'hui un espace public dirigé par une entreprise privée.

Est-il efficace de légiférer sur ces questions ? N'est-on pas face à un phénomène qui se reproduira sur d'autres plateformes et par là, difficilement traitable ?

Il y a deux aspects. Quelque soit le sujet, le temps juridique est toujours en retard sur le temps social et a fortiori sur le temps technologique. Les lois arriveront toujours trop tard, d'une certaine manière. Il n'est pas certain qu'il faille faire de nouvelles lois, puisque celles qui existent  permettent de réguler ces discours de haine. Elles ne sont pas toujours entièrement et immédiatement appliquées, mais elles existent. Il faut donc faire évoluer une partie de l'outil législatif : par exemple la question du statut de ces plateformes, puisqu'on a juste le choix entre hébergeur et éditeur. Les plate-formes comme Facebook, Twitter et Youtube ne sont pas uniquement hébergeur ou éditeur. Il faut donc faire évoluer une partie de la loi. Il s'agit aussi de responsabiliser et d'éduquer les utilisateurs : le problème vient aussi du manque de formation. Les plateformes façonnent l'opinion publique et doivent donc être considérées comme des espaces publics.

Ce qui pousse les États à légiférer, c'est d'une part des questions d'ordre privé : la haine sur internet comme atteinte à des individus, mais aussi des questions publiques : lorsque les discours porteraient atteinte à la démocratie. Dans le deuxième cas, y a-t-il vraiment un mimétisme d'opinion, ou seulement un mimétisme du discours et de ses conditions ? 

On exagère ce mimétisme  parce qu'on est encore beaucoup sur la théorie de la seringue : on a l'impression que les médias ont des effets très forts sur l'opinion et par exemple sur des sujets de société dans le cadre des élections. Depuis un certain nombre d'années, les sociologues étudient cette théorie  et se sont aperçus que les médias (télévision, radio, réseaux sociaux) font partie d'un spectre très large que chacun influence à sa manière et par lequel est influencé. Mais il n'y a pas de causalité directe et proportionnée entre ce qu'on lit sur Facebook et la manière dont on va ensuite voter.

Pour autant, ce qui est éminemment problématique et parfaitement documenté d'un point de vue scientifique, c'est le fait que grâce à des stratégies et des techniques publicitaires spéciales (ciblage publicitaire pratiqué par Facebook), il est possible – et on l'a vu lors de l'élection de Trump et d'autres – de faire basculer une partie de l'opinion qui peut suffire à changer l'issu d'un scrutin au milieu de plein d'autres critères. En France, par exemple, il y a des lois claires sur les questions de publicité électorales ; ces lois n'existent pas aux États-Unis ou dans d'autres pays. On est dans un système paradoxal aujourd'hui où certaines entreprises privées (Facebook, Google, etc.), sous la pression de l'opinion et de certains gouvernements, ont annoncé que la loi française sur la réglementation de la publicité en période électorale est efficace et que Facebook l'adaptera aux États-Unis pour éviter de se retrouver dans un scandale de type Cambridge Analytica.

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !