Enquête au pays des antivax : réseaux sociaux, fake news, complotisme et vaccination | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
Santé
Une femme brandit une pancarte lors d'une manifestation à Perpignan, le 17 juillet 2021, contre les mesures sanitaires du gouvernement.
Une femme brandit une pancarte lors d'une manifestation à Perpignan, le 17 juillet 2021, contre les mesures sanitaires du gouvernement.
©RAYMOND ROIG / AFP

Bonnes feuilles

Enquête au pays des antivax : réseaux sociaux, fake news, complotisme et vaccination

Olivier Jourdain a publié « Enquête au pays des antivax » aux éditions Plon. La France est le pays de Louis Pasteur et pourtant c'est aussi celui où l'on résiste le plus à la vaccination. D'où provient ce phénomène antivax ? Qui en sont les acteurs et quels sont leurs arguments ? Quel rôle jouent les réseaux sociaux désormais très relayés ? À l'heure de l'épidémie de Covid-19, ces questions deviennent cruciales. Extrait 1/2.

Olivier Jourdain

Olivier Jourdain

Le Dr Olivier Jourdain est médecin gynécologue obstétricien, ancien Interne des Hôpitaux de Bordeaux. Il est président de la CME de la Polyclinique Jean Villar depuis 2006, de la Commission Spécialisée d’Offre de Soins (CSOS-CRSA) Nouvelle Aquitaine depuis 2015 et de la Conférence des CME du Groupe ELSAN depuis 2018. Il est l’auteur de nombreuses communications et publications sur les pathologies liées au Papilloma Virus et à la vaccination HPV.

Voir la bio »

Le mouvement antivax existe depuis le XVIIIe  siècle et a, dès le départ, employé les moyens de communication de la presse écrite. Mais l’arrivée d’Internet et surtout des réseaux sociaux a transformé son audience. Facebook en 2004, YouTube en 2005, Twitter en 2006 vont prendre une part majeure dans la diffusion de l’information. Ces réseaux «ouverts » ont initialement des approches différentes. Facebook se veut un réseau plus familial, censurant toute nudité par exemple, alors que Twitter est d’inspiration plus libertarienne.

Ces plateformes sont nées pour la plupart en Californie. Des jeunes instruits, sortant de grandes universités ou même encore étudiants, en sont les créateurs. Les premiers utilisateurs ont naturellement le même profil. La recherche de profit les anime, mais il est indiscutable que la vision d’un monde meilleur est dans leur culture. Ces outils modernes de communication ne tarderont pas à intéresser d’autres profils attirés par la grande liberté d’expression et l’absence quasi totale de contrôle des informations circulant sur ces réseaux. Cette liberté va alors faire le jeu de tous les auteurs d’informations mensongères, fake news et conspirations diverses. « Le faux est susceptible d’une infinité de combinaisons; mais la vérité n’a qu’une manière d’être », écrivait Rousseau en 1750. Ces multiples combinaisons vont se répandre sur la Toile et dépasser les limites matérielles qui pouvaient les contraindre préalablement.

Les antivax s’approprient les réseaux sociaux

Les militants vaccinophobes dont nous avons parlé  précédemment ne font pas exception à cette règle.

La cartographie et l’organisation des antivaccins sur Facebook ont été détaillées par un article remarquable paru dans Nature en 2020. Les auteurs de cet article, piloté par Neil Johnson de l’université de Washington, sont connus pour avoir travaillé sur les contenus pro-État islamique sur la plateforme russe VKontakte. L’objectif était d’analyser comment des petits groupes terroristes s’agrègent et à quel moment le passage à l’acte devient imminent.

Les messages antivax d’environ cent millions d’usagers ont été analysés en sélectionnant des mots-clés autour de la vaccination. Chaque page et ses associations (nombre de like, relances, commentaires, reprise des hashtags, etc.) sont dénommées « cluster », dont l’importance se mesure au nombre de ces échanges. Ces clusters sont ensuite cartographiés après avoir été classés en trois groupes : « indécis », «provax» ou « antivax». Il  en ressort que les « indécis » sont de loin les plus nombreux, plus de cinquante millions de pages. Contrairement à une idée reçue, ils sont très actifs et vont chercher les informations en créant eux-mêmes de nouveaux liens. Les clusters antivax sont plus petits en nombre d’abonnés mais ils dominent la plateforme par leur nombre et sont très connectés aux indécis. Ils sont plus attractifs en proposant un large éventail de récits et d’affirmations sur les problèmes de sécurité. On y trouve aussi des théories du complot sur la santé et des produits de médecine alternative, censés guérir du virus Covid-19.

Ces clusters opposés aux vaccins sont de taille moyenne, mais ce sont ceux qui se développent le plus rapidement. Certains d’entre eux abordent par ailleurs d’autres préoccupations complotistes comme la 5G, Bill Gates (qui aurait planifié l’épidémie pour réduire la population mondiale), les chemtrails (ces traces laissées par les avions dans le ciel interprétées comme des épandages de produits chimiques dans le cadre d’opérations secrètes), le réchauffement climatique ou les pesticides. Ces pages sont souvent interconnectées avec d’autres réseaux sociaux, comme VKontakte ou Telegram, tous deux d’origine russe, Facebook, Instagram, Snapchat, présents surtout dans les pays occidentaux, et WeChat ou Weibo en Chine. Les pages provax, bien que plus importantes, ne participent pas en général aux débats contradictoires qui peuvent être assez violents. Elles dénombrent plus de soutiens individuels, mais les projections de Neil Johnson sont inquiétantes; au rythme actuel, en 2030, les antivax pourraient devenir majoritaires même si cette progression doit être analysée prudemment.

Nous disposons également d’analyses de la diffusion des « fausses nouvelles » sur Twitter. Soroush Vosoughi du MIT (Massachusetts Institute of Technology) explique dans Science que les fausses nouvelles diffusent beaucoup plus loin, circulent plus vite et plus largement que les propos fondés scientifiquement. Leur présence sur  les réseaux sociaux est en revanche plus courte. L’analyse sémantique des messages suggère que les mensonges inspirent la peur, le dégoût et la surprise alors que les histoires vraies suscitent l’anticipation, la tristesse, la joie et la confiance. Les sentiments associés aux fausses nouvelles sont considérés par Soroush Vosoughi comme plus originaux, plus surprenants, ce qui explique selon lui la rapidité de leur diffusion. Il rappelle que cette diffusion est bien d’origine humaine et que la responsabilité des réseaux sociaux ne doit pas masquer celle des rédacteurs.

Bot, troll, que faut-il craindre des comptes malveillants sur les réseaux sociaux?

Sur les réseaux sociaux, Twitter tout particulièrement, on peut constater que certains comptes mal identifiés utilisent des robots ou «bots ». Ces comptes robotisés sans intervention humaine sont utilisés par les acteurs de la désinformation. L’envoi massif de « trolls », ces messages volontairement polémiques et agressifs, parfois parodiques, via ces robots a pour objectif d’en provoquer la diffusion plus rapide. Ces procédés permettent ainsi d’amplifier artificiellement la portée d’un message en le rendant plus populaire qu’il ne l’est vraiment, et de le rendre plus lisible grâce aux algorithmes des médias sociaux. Ces outils sont principalement utilisés en politique – ce fut par exemple le cas lors de la campagne des élections présidentielles aux États-Unis en 2016.

Dans le domaine de la vaccination, quelques travaux suggèrent l’utilisation de ces outils numériques. David Broniatowski et son équipe de l’Université George Washington de Washington DC, en essayant d’améliorer les communications des médias sociaux pour les travailleurs de la santé publique, ont fait une découverte. Ils ont trouvé des trolls et des bots qui interfèrent dans le débat sur la sécurité des vaccins. Il s’agissait de messages provax ou antivax provenant de comptes russes, intervenus justement pendant l’élection présidentielle américaine en 2016. Ces chercheurs soupçonnent une origine malveillante de ces bots et trolls, car d’autres messages étaient souvent associés à des contenus à propos de race, de classe sociale, du bien-être des animaux ou remettant en cause la légitimité du gouvernement américain.

Mais le sujet tournant autour de la vaccination n’est souvent qu’un appât. Les messages associés sont généralement à caractère publicitaire ou visent à cliquer sur des liens vers des sites malveillants. Ils peuvent aussi être destinés à lancer une polémique débordant largement dans le champ politique, comme c’est régulièrement le cas dans la désinformation antivaccinale. Cette étude est publiée alors que les réseaux sociaux s’efforcent de lutter contre la désinformation.

Jessica Glenza du journal The Guardian précise que, en février 2018, les responsables de Twitter affirment avoir supprimé 3 800 comptes liés au gouvernement russe par l’intermédiaire de l’Agence de recherche sur Internet. En août, 650 autres comptes ont été fermés par Facebook pour la même raison.

Des exemples de désinformation provenant de sources russes par le biais de bots sur les réseaux sociaux ont été documentés en République démocratique du Congo lors de l’épidémie Ebola en 2014. Ces messages présentaient les soignants américains comme responsables d’une ingérence sur le territoire du Congo destinée à favoriser la propagation du virus. Les centres de traitement d’Ebola en République démocratique du Congo sont ici identifiés comme des symboles d’une intervention étrangère. Des informations sur les attaques armées contre ces dispensaires figuraient également dans ces messages. Cela n’est pas sans rappeler certaines campagnes de désinformation datant de l’époque soviétique.

En 2020, une nouvelle étude, cosignée par le groupe Cochrane d’Afrique du Sud et un enseignant en sciences politiques de l’université de Waltham dans le Massachusetts , a confirmé l’utilisation de trolls et de bots sur le réseau Twitter dont certains proviennent effectivement de pays étrangers. Leur rôle dans l’hésitation vaccinale ne fait pas de doute. Toutefois, les objectifs de leur utilisation semblent plus s’inscrire dans une stratégie de la discorde que dans un but spécifiquement sanitaire.

Les algorithmes

Les réseaux sociaux et les moteurs de recherche (Google, Amazon, par exemple) propagent les informations selon des algorithmes qui suggèrent à l’internaute de nouvelles sélections selon l’historique de ses connexions, et donc sensément en lien avec ses affinités, afin de le faire cliquer sur tel ou tel lien judicieusement choisi. Ces algorithmes sont confidentiels et stratégiques. Leur objectif est de capter et de retenir notre attention en augmentant le temps passé sur la plateforme. L’un des éléments décisifs dans l’ordre d’apparition des références proposées est le pagerank, note chiffrée proportionnelle à sa popularité. La plateforme suppose que, si un site est populaire, les nouveaux visiteurs l’apprécieront et continueront donc leur consultation. Cette note peut être artificiellement augmentée par différents moyens, entre autres par les bots que nous avons évoqués plus haut. Ce phénomène est devenu crucial : sur YouTube par exemple à 70 % des vidéos visionnées ne le sont pas par une démarche proactive du spectateur mais par une proposition de la plateforme.

Sur les sites francophones, une étude de Jeremy Ward (cf. chapitre 3) en 2015 montre que, sur la version française de Google, les questions sur la vaccination induisent des réponses orientées surtout vers des sites vaccinosceptiques, repoussant plus loin les pages plus généralistes. Ces pages plus polémiques sont plus souvent consultées que des pages favorables à la vaccination, souvent d’origine institutionnelle et pas forcément très attractives. À la suite de demandes répétées des autorités sanitaires, des modifications sur ce sujet ont été apportées en 2019 par Google, mais la régulation de l’information sur Internet reste un problème complexe. La lecture automatisée et l’analyse du contexte des requêtes, quand bien même il est fait appel à l’intelligence artificielle, restent imparfaites.

La coordination de groupes organisés peut également amplifier l’effet des algorithmes. Ce procédé est appelé astroturfing. Ainsi, une minorité militante, en organisant des connexions nombreuses et rapprochées, a pu optimiser l’impact du film documentaire indépendant Hold-up sorti en novembre 2020 sur la plateforme Vimeo. Ce film de deux heures quarante prétend dévoiler la face cachée de l’épidémie de Covid-19 en assénant des contre-vérités formulées par des personnalités antivax militantes, dont certaines sont proches de la mouvance QAnon. Les adeptes de ce mouvement, d’origine américaine, sont ouvertement conspirationnistes. Leur objectif est de réunir toutes les théories complotistes possibles en les agrégeant autour de codes largement inspirés du film Matrix. Grâce au financement participatif des plateformes, les producteurs du film Hold-up ont pu obtenir 300 000 euros et sortir la vidéo de sa marginalité. Très présente aux États-Unis, cette mouvance commence à arriver en Europe, et des signalements ont été récemment adressés à la Miviludes (Mission interministérielle de vigilance et de lutte contre les dérives sectaires).

Quel est l’impact du message antivax sur l’opinion publique?

L’opinion publique peut-elle être sondée par l’analyse des échanges sur les réseaux sociaux?

En 2014, le Baromètre européen de la culture numérique en santé montre que 59% des sondés recherchent des informations médicales sur Internet, et, sans surprise, c’est la fraction des plus jeunes qui est la plus représentée. Les blogs et les forums sont plus utilisés que les sites institutionnels mais moins que les moteurs de recherche à propos de la vaccination. Dans 39% des cas, les internautes ne croient pas vraiment les informations trouvées; 89% sont satisfaits de la qualité des informations; et 81% se sentent capables de trier les vraies informations des fausses.

En 2017, sur YouTube, la recherche de mots-clés comme vaccine safety et vaccines and children permet de consulter 87 vidéos, dont 65% d’entre elles sont opposées à la vaccination, 36,8% n’apportent pas d’éléments scientifiques et seulement 5,6% proviennent de sites institutionnels. La polarisation des internautes est évidente, les communautés de pensée se retrouvant sur les mêmes pages. Les hésitants sont nombreux, et plusieurs profils sont identifiés. Les parents d’enfants en âge d’être vaccinés ne sont pas toujours capables d’analyser le contenu des messages, et la fiabilité de ces messages n’est reconnue qu’une fois sur deux par les étudiants.

En janvier 2021, Anne Hommel et Sacha Mandel, spécialistes de la communication et des réseaux sociaux, rapportent une étude IPSOS publiée en janvier 2021. L’analyse des informations et des propos sur les réseaux sociaux y est comparée à des sondages plus conventionnels. On apprend alors que 60% de la population française n’a pas l’intention de se faire vacciner dans l’immédiat contre le Covid-19. Mais seuls 14% sont opposés aux vaccins en général, alors qu’en Australie ce chiffre est de 18%, 17% au Royaume-Uni, 19% aux États-Unis, pays où l’hésitation vaccinale est pourtant considérée comme plus faible qu’en France.

Les réseaux sociaux surexposent les informations polémiques sans en contrôler le contenu, mais quelle est leur audience ?

Ces deux communicants affirment que, abreuvés par ces messages, les journalistes et les élus sont victimes d’un «biais d’audience». Les décisions publiques peuvent alors être influencées par ces messages provenant de fractions très minoritaires. En fait, ce qui est en cause n’est pas le principe du réseau social mais l’utilisation que nous en faisons. Un outil permet de croiser les sondages conventionnels avec les nouvelles techniques d’écoute des réseaux sociaux. Seuls 2,9% des sondés expriment spontanément une opinion antivax sur Twitter, ce qui reste marginal. Dans la même période, ce réseau n’a touché qu’un Français sur cinq en un mois. Mais journalistes et élus, ciblés par les antivax, peuvent recevoir jusqu’à soixante-dix messages contre la vaccination chaque jour.

Dans le même ordre d’idées, la corrélation entre l’exposition aux messages Twitter et la couverture vaccinale HPV a été étudiée aux États-Unis. Le niveau socio-économique a été également pris en compte. Là où l’exposition aux tweets est forte, la vaccination est faible, sans que cela soit pour autant expliqué par des facteurs socio-économiques. La couverture vaccinale est plus faible dans les États du Midwest où les préoccupations de sécurité des vaccins, où la désinformation et les complots autour de la vaccination font l’objet d’un plus grand nombre de messages. La question se pose donc de savoir si les représentations négatives dans ces médias reflètent ou influencent l’acceptation des vaccins ? Quoi qu’il en soit, la corrélation existe au point de proposer l’analyse des tweets d’une population en tant que signal reflétant les comportements de santé !

Les utilisateurs de Twitter ne sont pas nécessairement représentatifs de la population générale, bien sûr. Toutefois, devant l’importance des corrélations rapportées, des études précises permettraient d’identifier les endroits où la désinformation est la plus répandue.

Grâce à ces analyses, des interventions de santé publique pourraient alors être élaborées.

Il existe toutefois d’autres moyens au travers desquels les réseaux sociaux influencent notre comportement.

Extrait du livre d’Olivier Jourdain, « Enquête au pays des antivax », publié aux éditions Plon

Lien vers la boutique : cliquez ICI et ICI

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !