Quand les réseaux sociaux effacent (obstinément) les preuves de crimes de guerre <!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
International
Il y a plus d’un million de personnes qui sont en charge du community manager sur les réseaux sociaux.
Il y a plus d’un million de personnes qui sont en charge du community manager sur les réseaux sociaux.
©Pixabay

Prévention

Les réseaux sociaux suppriment ces vidéos et ces publications car il s’agit d’images violentes.

Fabrice Epelboin

Fabrice Epelboin

Fabrice Epelboin est enseignant à Sciences Po et cofondateur de Yogosha, une startup à la croisée de la sécurité informatique et de l'économie collaborative.

Voir la bio »

Atlantico : Les réseaux sociaux effacent les preuves de crimes de guerre. Pour quelles raisons ?

Fabrice Epelboin : Les réseaux sociaux suppriment ces vidéos et ces publications car il s’agit d’images violentes. Si l’on en croit les fuites de Facebook, les spécialistes de l’IA estiment qu’ils pourraient arriver un jour à 5 % d’efficacité. L’intelligence artificielle ne peut donc pas être utile. Il est nécessaire de passer par un centre de modération avec des individus qui passent leur temps à regarder des scènes atroces et qui doivent prendre la décision en quelques secondes de modérer ou non ces contenus. Comme ils ont des règles de décision qui ne font pas appel à leur réflexion mais qui font appel à un ensemble de règles qu’ils apprennent par cœur et qu’ils répètent, s’il y a de la violence, la censure intervient alors.

Facebook n’est pas une plateforme pour héberger des crimes de guerre. Et YouTube non plus d’ailleurs. Ces images, vidéos ou séquences violentes sont contraires aux conditions générales d’utilisation. Ce n’est également pas le lieu pour caractériser une preuve. Ces reproches faits aux réseaux sociaux sont aberrants. Ce type de contenus choquants et violents sont interdits sur ces plateformes et sur les réseaux. Ces réseaux n’ont pas vocation à héberger et à conserver les preuves d’un crime.

Comment expliquer que malgré tout un certain nombre de gens essayent de poster ces contenus sur les réseaux sociaux ? Est-ce que ce n’est pas parce qu’ils n’ont que ce moyen pour essayer de le faire circuler et pour tenter de faire éclater la vérité ?

Pour la circulation des contenus, il est évident que les réseaux sociaux sont imbattables. Si vous souhaitez diffuser vos vidéos et vos preuves sensibles sur ces réseaux, il faut jouer avec la censure.

Lors du Printemps arabe, des exactions et des images violentes étaient postées tous les jours. Cela a contribué à amplifier le mouvement de contestation. Les violences policières étaient captées en vidéo et partagées sur Facebook lors du Printemps arabe. Cela a entraîné des manifestations qui ont été le théâtre de nouvelles violences policières qui sont à nouveau captées en vidéo. Le temps que la censure de Facebook arrive, le mouvement avait organisé plusieurs manifestations. Cela a contribué à un jeu du chat et de la souris.

Il s’agit donc d’un argument démagogique qui vise à critiquer les réseaux sociaux. Les massacres commis par les mercenaires de Wagner devraient rester en ligne par rapport à des meurtres horribles relayés sur les réseaux sociaux ? Il s’agit d’une injonction paradoxale.

On attend d’un service de modération qu’il soit relativement instantané par rapport à la vitesse de la Justice (10 minutes, 24 heures, 48 heures). Et on attend de ces décisions instantanées, qui obéissent à des logiques économiques, qu’il y ait la même capacité de discernement que dans une procédure de Justice… Cette situation est lunaire.

Certains pourraient avoir le sentiment que finalement il y a plus de zèle à supprimer ce genre de vidéo que d’autres contenus qui résistent sur les réseaux sociaux. Est-ce que cela serait un mauvais procès ?

Cela serait un mauvais procès, de la pure démagogie et de l’ignorance crasse. Avant d’émettre ce jugement, il faut comprendre comment se passe une modération. Il faut réaliser que de toute façon que cela soit un acte de violence, de harcèlement dans une école ou un massacre fait sur des civils par un commando Wagner, de toute façon cela va passer par le même circuit de modération.    

La vitesse de modération va dépendre d’une multitude de facteurs qui n’ont absolument rien à voir avec le contenu de la vidéo.

La vidéo sera éliminée dans un cas comme dans l’autre pour contenu violent. Cela n’ira pas plus loin car la prise de décision va être effectuée par un opérateur à qui on ne demande pas du tout de réfléchir, bien au contraire, mais juste d’appliquer un ensemble de règles que la machine aujourd’hui incapable d’appliquer à elle-même.

Cela est donc démagogique et reflète une ignorance crasse du sujet qui est abordé.

Si Facebook ou une plateforme faisait une distinction entre un contenu qui est un crime de guerre et un contenu qui est juste une image violente qui n’a absolument rien à faire sur cette plateforme, c’est absolument ignorer de quoi on parle.

Est-ce que quand la vidéo ou l’image est strikée par  un réseau social elle disparaît complètement des banques de données du réseau social ? Est-ce qu’ils en gardent une trace ou pas du tout ?

Le fait d’en garder une trace poserait une multitude de problèmes juridiques. Cela poserait aussi un problème de business. Conserver tout ce qui serait supprimé coûterait énormément en termes de stockage. Et cela n’a pas le moindre intérêt.

Mais il serait possible d’imaginer, à travers une législation intelligente, que l’on impose aux réseaux sociaux de garder une trace de ce qu’ils modèrent, de façon à ce qu’éventuellement par la suite un juge puisse demander d’accéder au contenu original qui a disparu. Mais la Justice n’a pas les moyens humains pour traiter ces enjeux.

Il y a plein d’alternatives si l’on souhaite stocker et retenir ces images sur le web. Quels sont ces canaux ?

Si vous êtes dans une situation de guerre ou de résistance et que dans le groupe que vous avez composé il y a quelqu’un qui comprenne la technologie, vous êtes mort. Etant donné les technologies de surveillance et à quoi vous faîtes face, vos chances de survie sont très faibles.

Si un jour vous vous retrouvez dans une situation de résistance face à un envahisseur comme les Ukrainiens, face à un régime autoritaire et que dans votre groupe de résistance il n’y a pas une personne qui soit en charge de la technologie et qui maîtrise tous ces outils sur le bout des doigts, votre espérance de survie dans le monde actuel de Big brother est quasi nulle.

Selon la BBC, les militants des droits de l’homme disent qu’il y a un besoin urgent d’un système formel pour assembler et stocker en toute sécurité le contenu supprimé et les preuves de crimes de guerre. Est-ce que cela pourrait exister ou est-ce déjà le cas ?

C’est une excellente idée. Cela existe en Open source. PeerTube est la référence pour construire un YouTube décentralisé. Amnesty International ou Human Rights Watch pourraient avoir leur instance PeerTube. Cette instance pourrait être dédiée au téléchargement de potentielles preuves de crimes de guerre. Cela règlerait le problème. Des ONG devraient rebondir sur cette idée. Amnesty International pourrait être calibrée pour proposer ce service. Mais il faudrait encore que les militants sur le terrain sachent précisément ce qu’ils sont en train de faire.

La pire chose que l’on puisse faire en matière de sécurité c’est de donner des conseils qui demandent à être réévalués régulièrement par des experts.

Selon la BBC, il existe une exemption pour les « graphic war footage in the public interest » sur Meta et Youtube. Pourquoi dans les faits elle ne s’applique pas ?    

Cela s’explique par les difficultés de la modération liées aux coûts économiques. Les modérateurs sont en détresse psychologique au bout de quelques mois à force de visionner des horreurs dans le cadre de leur mission de modération. Selon certaines études, les modérateurs sont victimes de stress post-traumatique. Cela n’est pas compatible avec le droit du travail français.

Nous sommes donc obligés pour plusieurs raisons de sous-traiter cela dans des pays où le travail se fait à la chaîne dans les plus bas coûts possibles et où la prise de décision doit être effectuée entre 4 à 6 secondes. C’est complètement irréaliste de demander cela.

En revanche, Meta a une connexion directe sur tout cela. Meta a des community managers qui sont en charge de la modération.

Il y a plus d’un million de personnes qui sont en charge du community manager sur les réseaux sociaux.

Les citoyens chinois ont plutôt tendance à ne pas faire de vague à la différence des citoyens occidentaux. Si vous vouliez avoir une modération comparable à la Chine, cela représenterait également une masse salariale énorme. Il y a beaucoup plus de haine sur les réseaux sociaux occidentaux que sur les réseaux sociaux chinois. Il est donc impossible d’avoir un très grand nombre de modérateurs. Les représentants de la classe politique n’ont pas intégré cette notion également.

L’IA pourrait-elle être une solution ?

En l’état actuel, à court et à moyen terme, en aucun cas. Les dirigeants ont pris les propos de Mark Zuckerberg au pied de la lettre jusqu’au jour où il y a eu Frances Haugen, la lanceuse d’alerte de Facebook qui a sorti un grand nombre de documents internes dans lesquels de nombreux rapports rédigés par des experts en intelligence artificielle démontraient que l’intelligence artificielle était capable d’identifier 3 à 5 % des contenus problématiques et que peut-être ils seraient en mesure d’identifier jusqu’à 10 %.

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !