Bienvenue dans un monde partial : Angela Merkel s’en prend aux biais des algorithmes des moteurs de recherche, mais y a-t-il des solutions au problème ? | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
Politique
Angela Merkel attire l’attention sur le fait que Google propose des résultats personnalisés à chaque utilisateur, et que cela peut s’avérer néfaste pour la société. C’est la "filter bubble" qui fait que Google nous fournit des résultats filtrés.
Angela Merkel attire l’attention sur le fait que Google propose des résultats personnalisés à chaque utilisateur, et que cela peut s’avérer néfaste pour la société. C’est la "filter bubble" qui fait que Google nous fournit des résultats filtrés.
©

Big Brother

Bienvenue dans un monde partial : Angela Merkel s’en prend aux biais des algorithmes des moteurs de recherche, mais y a-t-il des solutions au problème ?

Ce jeudi 27 octobre, Angela Merkel a fustigé le manque de transparence des moteurs de recherche lors d'une conférence sur les médias à Munich. Selon elle, l'information est toujours biaisée sur Internet, sans que l'utilisateur n'en ait jamais véritablement conscience.

Fabrice Epelboin

Fabrice Epelboin

Fabrice Epelboin est enseignant à Sciences Po et cofondateur de Yogosha, une startup à la croisée de la sécurité informatique et de l'économie collaborative.

Voir la bio »

Atlantico : Angela Merkel a récemment pointé du doigt les moteurs de recherche, déclarant qu'ils déformaient la perception de son utilisateur en l'orientant sans qu'il en soit conscient. Elle a notamment demandé plus de transparence. A quoi cela servirait-il de divulguer les algorithmes comme elle le demande ?

Fabrice EpelboinL’algorithme de Google est le cœur du secret sur lequel repose sa richesse. Qui plus est, il évolue constamment. Le dévoiler n’est pas imaginable, et ce n’est certainement pas l’objectif d'Angela Merkel. Elle cherche plus à attirer l’attention sur le fait que Google propose des résultats personnalisés à chaque utilisateur, et que cela peut s’avérer néfaste pour la société. C’est ce qu’on appelle la "filter bubble" qui fait que Google nous met tous dans des "bulles", et nous fournit des résultats filtrés non seulement pour leur pertinence, mais aussi, et de plus en plus, pour nous faire plaisir, car l'expérience du produit Google se doit d’être agréable.

Cette filter bubble fait qu’un internaute "de gauche" aura tendance à trouver avec Google des résultats issus de médias orientés à gauche, qu’un internaute "de droite" retrouvera aux même places des résultats Google de médias "de droite", et que tout un tas d’autres internautes trouvent eux des résultats plus personnalisés. Cela les enferme dans un univers cohérent et douillet, dans une zone de confort qui définit une expérience produit. Votre expérience de Google.

Considérez vous que l'effet "chambre d'écho" est aujourd'hui particulièrement vivace aujourd'hui sur Internet ? Comment cela se manifeste-t-il en matière de politique ? 

Google et Facebook, qui chacun à leur manière enferme ses utilisateurs dans une telle filter bubble, représentent une très large partie de la vie en ligne de la plupart des internautes, et l’essentiel des outils qu’ils utilisent pour accéder au reste de l’Internet. A eux deux, ces acteurs ont un quasi-monopole pour ce qui est de faire l’interface entre les internautes et l’information, au sens large.

Les conséquences politiques, et plus largement sociales, sont potentiellement phénoménales. Au fil des Like, l’utilisateur de Facebook se retrouve vite enfermé, dans son flux d’information, dans un entre-soi à la pensée homogène, au détriment de contacts avec des amis et des pages d’un autre avis. Les effets sont multiples. La "radicalisation sur Facebook", par exemple, souvent évoquée à propos des adolescents, procède de ce phénomène d’enfermement. On prête par ailleurs attention à des gosses qui se radicalisent et rejoignent Daesh, mais pour un qui termine ainsi, combien sont-ils à se radicaliser sur autre chose ? Se retrouver enfermé dans un groupe à la pensée homogène fait par ailleurs naître un sentiment de toute-puissance au sein de ce groupe. C’était vrai avant Facebook, mais Facebook facilite ici ce phénomène avec la filter bubble, et les conséquences peuvent être, là encore, très inattendues.

Il est plus que compréhensible que les politiques soient pris de panique, d’autant qu’une large partie du "phénomène Trump" aux USA est liée à cet effet de filter bubble. Angela Merkel fait d’ailleurs le lien en expliquant qu’elle ne veut pas de ça chez elle.

Ces algorithmes ont un effet évident sur la façon dont l’opinion publique se forme : nous sommes en train de passer de façon assez brusque d’un monde où les médias avaient un rôle dominant dans la façon de forger l’opinion publique à une époque où ce sont les algorithmes de Google et de Facebook qui structurent l’opinion.

Comment peut-on se libérer de cette information conditionnée ? Existe-t-il des outils ? Des mesures internationales peuvent-elles êtres prises ?

Se déconditionner de tout cela est assez simple, cela consiste à se passer de Google et Facebook. Vous éviterez ainsi l’essentiel du problème. C’est au pire aussi difficile que d’arrêter de fumer. Et d’une certaine façon, c’est aussi un vrai problème de santé publique pour la société française, qui se fracture de toutes parts - et ces algorithmes ont une lourde part de responsabilité là-dedans.

Quant à savoir si des mesures internationales peuvent être prises, qui imposeraient, par exemple, à Facebook et Google "d’uniformiser" l'expérience fournie à leurs utilisateurs, c’est une idée intéressante, mais cela me semble pour le moins irréaliste.

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !