Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
High-tech
Facebook se défend de favoriser les contenus extrêmes ou violents.
©Chris DELMAS / AFP

Complicité des algorithmes ou contenus extrêmes

Facebook est-il un danger pour la démocratie ?

Mis en accusation par le Congrès américain pour son rôle dans la polarisation et la radicalisation des opinions politiques, Facebook se défend en accusant la nature humaine et en exonérant ses algorithmes. Et son business model. Faut-il l’entendre ? Ou le faire rentrer d’urgence dans le rang ?

David Fayon

David Fayon

David Fayon est consultant Web pour des entreprises et organisations françaises depuis la Silicon Valley, co-fondateur de PuzlIn et membre de l'association Renaissance Numérique. « Il est l'auteur de Géopolitique d'Internet : Qui gouverne le monde ? (Economica, 2013), Facebook, Twitter et les autres... (avec Christine Balagué, Pearson, 3e éd, 2016) ainsi que de  Made in Silicon Valley – Du numérique en Amérique (Pearson, 2017). Il vient de publier avec Michaël Tartar Transformation digitale 2.0 (Pearson, 2019).

Voir la bio »

Atlantico : Dans ses dernières annonces, Facebook a fait valoir que le réseau social n’était pas particulièrement responsable de la prolifération de contenus extrêmes sur ses plateformes, mais qu’il prenait des mesures appropriées pour lutter contre cela. Son business model est-il un problème dans la lutte contre la radicalisation des opinions politiques ?

David Fayon : Effectivement, le vice-président des « Global Affairs » de Facebook, Nick Clegg, a publié le 31 mars un article sur Medium intitulé You and the Algorithm: It Takes Two to Tango comme s’il y avait une symbiose entre l’algorithme et l’utilisateur. Ceci est écrit pour justifier que la responsabilité en cas de contenu extrême ou choquant mis en exergue sur le réseau social n’était pas du fait de l’algorithme de Facebook. Dans cet article, il défend en effet les algorithmes de classement des posts développés par Facebook pour faciliter la vie de l’utilisateur à l’image de Netflix et il rejette leur opacité et l'argument selon lequel ces algorithmes créent une caisse de résonnance et seraient la cause de la violence. On songe par exemple à la prise d’assaut du Capitole du 6 janvier dernier ou en France ce qui a permis au mouvement des Gilets jaunes de se constituer. C’est un moyen de se dédouaner si à l’avenir des accusations étaient portées à l’encontre du numéro 1 mondial des réseaux sociaux. Ceci intervient alors que la prise de conscience dans l’opinion publique de l’opacité des algorithmes, du caractère addictif des réseaux sociaux va crescendo comme cela a été montré entre autres dans le documentaire The Social Dilemma.

Dans les récentes mesures annoncées mercredi dernier, Facebook indique apporter des changements pour permettre aux utilisateurs de paramétrer les publications qu'ils souhaitent voir apparaître dans leurs fils d'actualité. Ceci concerne l’affichage dans le flux d’actualités des posts les plus récents et la possibilité de choisir jusqu’à 30 amis ou pages qui sont à prioriser. Et aussi le fait de limiter le nombre de personnes autorisées à commenter leurs publications. Ceci est un peu copié sur Twitter ou un tweet peut être commenté pas forcément par tout le monde mais par les personnes que l’on suit ou uniquement des personnes mentionnées. Du reste cette tendance s’inscrit dans la convergence des applications et de leurs fonctionnalités qui se copient (par exemple Instagram va puiser des fonctions développées par Snapchat ou TikTok). Il s’agit en l’espèce de proposer aux utilisateurs de basculer d’un flux de posts organisé par un algorithme à un flux basé sur les pages qui correspondent à des membres de leur réseau avec un flux chronologique inversé.

Facebook soigne sa communication pour donner l’impression de rendre la main à l’utilisateur plus qu’à ses algorithmes et en étant moins opaque sur leur fonctionnement. Pour autant le nombre de publicités poussées sera analogue et la portée des publications (le reach) ne va pas s’améliorer. Ceci se traduira pour les marques notamment que pour être visible il conviendra toujours de payer.

À Lire Aussi

Dépression en ligne : la modération par les réseaux sociaux des contenus dangereux pour la santé mentale pourrait être pire que le mal

Il est cependant notable que dans le business model de Facebook, les algorithmes en font partie intégrante pour aussi pouvoir vendre des espaces publicitaires à des annonceurs et avec des ciblages les plus précis possibles. En outre ses algorithmes sont conçus pour être addictifs, pour pousser à avoir davantage de J’aime (et autres émojis), de commentaires, de partages, ce qui se traduit par davantage de temps passé derrière les écrans. Et les contenus viraux sont ceux qui provoquent une émotion forte, qui sont plus clivants et extrêmes. L’internaute aidé par les algorithmes ne sera pas enclin à réagir à un contenu fade, consensuel. Il préférera réagir à du Mélenchon ou du Laurent Alexandre qui aiment provoquer ou du moins ne pas laisser indifférent. Peu importe que l’information soit intéressante ou vraie, l’essentiel est que l’on parle de soi. Il en va de même du pouvoir actuel.

Peut-on réellement exonérer les algorithmes de l'équation et considérer que seuls les humains derrières les comptes Facebook sont responsables de ces dérives ? 

Facebook voudrait rejeter la responsabilité sur les utilisateurs alors que les algorithmes participent à la viralité de certains posts avec un phénomène boule de neige dès lors qu’une publication suscite un intérêt peu après avoir été publiée. Par ailleurs, il est illusoire pour les réseaux sociaux de pouvoir modérer tous les contenus publiés et même avec un mix entre modération humaine et modération algorithmique sachant qu’il peut y avoir des erreurs liées aux subtilités, au contexte, à l’humour, aux interprétations.

Facebook cherche à se protéger par rapport à des accusations selon lesquelles il alimente les contenus extrêmes et la polarisation politique. Il veut ne pas être déclaré responsable en cas d’actes de terrorisme ou d’agissements liés à des contenus publiés sur son réseau et non modérés ou par une reprise en cascade d’un post viral. Par ailleurs, le temps passé sur les écrans, s’il est trop abondant, modifie nos comportements dans la vraie vie et notre perception du réel.

À Lire Aussi

Faut-il accorder l’accès à ses contacts et partager ses données personnelles avec WhatsApp, Facebook messenger, Signal, Telegram et autres applis de messagerie ?

Or Facebook avec ses algorithmes effectue des suggestions de pages à suivre selon ses interactions et son historique sur le réseau. Le danger serait de « fabriquer le consentement au capitalisme de cybersurveillance ». Les algorithmes font partie de l’équation des potentielles dérives.

Au Congrès américain, l’entreprise est sous le feu des critiques et son dirigeant a été appelé à plusieurs reprises à s'exprimer devant les parlementaires. Le Parlement américain devrait-il agir pour atténuer l’influence néfaste de Facebook et de ses filiales ? Peut-il réellement le faire et cela sauverait-il la démocratie ?

Nous avons plusieurs phénomènes qui se superposent. Tout d’abord, Facebook se doit de réparer sa réputation par rapport à ses algorithmes d’autant que nous avons eu aussi l’affaire Cambridge Analytica avec des impacts sur l’élection présidentielle américaine en 2016. Plus récemment en ce début 2021, nous avons eu l’évolution des CGU (Conditions Générales d’Utilisation) de WhatsApp et de nombreux utilisateurs qui face à ce Big Brother ont préféré basculer sur les outils de messagerie instantanée Signal, Telegram voire Olvid.

Le fait que les algorithmes de Facebook nous mettent en exergue ce que l’on est susceptibles de consommer en fonction de notre profil est dangereux par rapport à des données sensibles au sens de la CNIL. On l’a vu avec Cambridge Analytica car dans le flux d’information affiché, des messages à géométrie variable peuvent dans le cadre d’une campagne politique d’un candidat, être affichés : ce à quoi un facebooknaute sera réceptif en occultant d’afficher ce qui n’aura pas ses faveurs dans le programme de ce même candidat. C’est une potentialité de manipulation de l’opinion.

À Lire Aussi

Petit guide des multiples moyens employés par Facebook pour vous traquer en ligne

Facebook cherche à éviter des sanctions futures, un possible démantèlement qui sont pour l’heure des velléités face à l’omnipotence des GAFAM et de Facebook, géant des réseaux sociaux. Dans le même temps, le pouvoir des États est, dans de nombreux cas, plus faible que celui des GAFAM. On l’a vu avec Donald Trump qui a été banni de Twitter alors qu’il était la 8e personne dans le monde la plus suivie sur ce réseau, puis peu après de Facebook. Le pouvoir politique est menacé d’ubérisation par le pouvoir algorithmique mis en œuvre par les réseaux sociaux, qui sont aussi – et en ces temps de restrictions sanitaires – de nouveaux cafés du commerce planétaire.

La législation américaine pourrait rendre complice les plateformes des agissements dans la vie physique avec ce qui s’est passé notamment au Capitole et qui pourrait faire jurisprudence. Les procès étant monnaie courant aux États-Unis avec de lourds frais d’avocat, de procédure et surtout d’indemnisation. Tout acteur, encore plus s’il est oligopolistique, cherche à se protéger et à influer l’opinion. La démocratie est en danger, pas simplement du fait des réseaux sociaux mais aussi de la part du politique qui, sous couvert de lutter contre un fléau temporaire (crise sanitaire) ou pour le temps d’une génération (terrorisme), vote des lois liberticides. Et comme le dit le romancier Tristan Bernard « La liberté est un bien précieux, mais il faut avoir un petit capital d'exploitation pour le cultiver ».

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !