Coupe du monde : fans de foot du monde entier, Big Brother vous surveille | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
High-tech
Coupe du monde : fans de foot du monde entier, Big Brother vous surveille
©GIUSEPPE CACACE / AFP

Surveillance biométrique

Coupe du monde : fans de foot du monde entier, Big Brother vous surveille

Thierry Berthier

Thierry Berthier

Thierry Berthier est Maître de Conférences en mathématiques à l'Université de Limoges et enseigne dans un département informatique. Il est chercheur au sein de la Chaire de cybersécurité & cyberdéfense Saint-Cyr – Thales -Sogeti et est membre de l'Institut Fredrik Bull.

Voir la bio »

Atlantico : Alors que plus d’un million de fans devraient faire le déplacement pour assister à la Coupe du monde 2022, plus de 15 000 caméras ont été installées dans les stades et les rues de Doha. Que sait-on des méthodes de surveillance employées lors de cette Coupe du monde ? Dans quelle mesure faut-il s’en inquiéter ? 

Thierry Berthier : Il s’agit effectivement d’une impressionnante infrastructure de 15000 caméras de surveillance déployées en réseau sur l’ensemble de la ville avec une couverture très fine des sites sensibles, des stades et des rues situées en voisinage immédiat. Chacune de ces caméras produit un flux vidéo en temps réel redirigé vers un centre de contrôle qui a pour mission d’analyser et de croiser les images reçues pour détecter d’éventuelles déviations par rapport à la normalité, menaces, mouvements de foule, agression, attaque terroriste. Les volumes de données collectées sont si importants qu’il est indispensable d’automatiser le plus possible la phase d’analyse et la remontée d’alertes. L’objectif est de pouvoir traiter simultanément en temps réel tous les flux vidéo. Les caméras peuvent être fixées sur un pylône, sur une toiture, sur du mobilier urbain, embarquées dans un drone aérien, un véhicule ou un robot terrestre. L’automatisation du traitement des vidéos s’appuie ensuite sur différents types de composantes d’analyse d’images (computer vision), de reconnaissance faciale, de détection d’anormalités (mouvement de foule, détection d’armes et d’explosions détonation à partir des flux audios et vidéos. Les techniques de biométrie permettent de détecter la présence de supporters indésirables ou d’individus recherchés. L’Intelligence artificielle joue un rôle important dans l’analyse des flux vidéos. Les technologies de « computer vision » permettent de détecter des objets spécifiques (armes, couteaux, fumigène) ou des déplacements caractéristiques (individu se mettant à courir, chute à la suite d’un malaise, cris,…). La biométrie, quant à elle, permet d’accélérer les opérations de contrôle des billets pour accéder aux matchs et de détecter les individus recherchés ou indésirables dans les stades. 

Faut-il s’en inquiéter ? C'est une question typiquement européenne ou française. En Chine, en Corée du Sud, au Japon, en Amérique du Nord, la question serait inversée : « faut-il s’inquiéter du manque de caméras de surveillance, de systèmes de reconnaissance faciale ou biométriques, lors d’une compétition mondiale ? ». Pour répondre rationnellement à ces questions, il faut évaluer le rapport bénéfice – risques associé à la mise en œuvre (ou non) de ces systèmes de vidéo surveillance massive. Il est impossible de traiter manuellement le flux vidéo issu de 15000 caméras de surveillance. Cela nécessiterait de mobiliser une armée d’opérateurs puis d’analystes chargés de la gestion des alertes. Une telle infrastructure serait incroyablement coûteuse et certainement inefficace dans le traitement coordonné des images. La question importante du respect des libertés individuelles et de la protection des données personnelles se pose dès que ce type de système est déployé dans l’espace public. Là encore, il s’agit d’arbitrer entre le maintien de la « privacy » et l’apport de sécurité dans un contexte propice aux attaques terroristes ou aux mouvements de foules mortels. Il suffit de se reporter au drame qui s’est déroulé en Corée du Sud le 29 octobre dernier provoquant la mort de 146 personnes à la suite d’une bousculade incontrôlée. Un système de caméras intelligente embarquées dans des drones aériens aurait certainement permis d’anticiper le déplacement de milliers d’individus dans un goulot d’étranglement et de donner l’alerte en avance de phase. 

Les organisateurs de la Coupe du monde du Qatar ne sont pas les seuls à surveiller l'activité des supporters de football. Au Danemark, au Pays-Bas, en Espagne et même en France, des technologies de reconnaissance faciale ont déjà été utilisées. Peut-on parler de surveillance de masse lors de ces événements ?  Quelles questions éthiques cela pose-t-il ?

Le terme de « surveillance de masse » possède une connotation extrêmement négative en France. Il nous renvoie forcément à une volonté de contrôler et de limiter les libertés individuelles dans un projet totalitaire. Nous devons faire évoluer la perception du citoyen sur ce point, dans son rapport à la technologie, au regard de sa demande légitime de sécurité. Dès lors, les systèmes de vidéosurveillance intelligents doivent être considérés comme des détecteurs de menace qui font baisser le niveau de risque individuel au cœur d’un évènement collectif. Ces systèmes peuvent être perçus comme « anges-gardiens technologiques » qui veillent de manière algorithmique au bon déroulement d’une manifestation sportive. Les questions éthiques sont toujours à géométrie variable. On peut bien entendu refuser, par principe, la captation de son image et de son traitement dans un système s’appuyant sur l’intelligence artificielle mais il faut alors accepter et assumer le risque associé à une absence de mesure de sécurité au sein d’une manifestation rassemblant du public. La question éthique peut, elle aussi s’inverser en s’interrogeant de la manière suivante : est-il éthique d’organiser une grande compétition rassemblant de milliers de visiteurs sans mettre en œuvre, par défaut, toutes les technologies disponibles pour abaisser le niveau de risque ? La question éthique peut toujours s’inverser et sa prise en compte est très différente d’une culture à l’autre, d’un continent à un autre. 


Au-delà des questions évidentes relatives à la vie privée et au contrôle des citoyens, quelles sont les limites de ces systèmes ? Des dysfonctionnements sont-ils possibles ? Avec quelles conséquences ?

Les limites de ces systèmes se situent essentiellement dans leurs niveaux de performance de détection de dangers, de situations anormales ou d’identification d’un individu dans un contexte donné. Les progrès réalisés en biométrie et en reconnaissance faciale ont été massifs et rapides avec des taux de détection dépassant souvent les 95%. Dans les cas douteux, il faut souvent utiliser une autre technologie pour corriger l’erreur de détection ou s’appuyer sur de la confirmation manuelle ou de l’arbitrage humain. Les dysfonctionnements sont donc possibles mais ils restent toujours sous un seuil d’acceptabilité propre à chaque système. Un visiteur que le système ne parvient pas à identifier pour l’associer à un billet d’entrée sera contrôlé dans un second circuit dédié aux cas non décidés par la machine. Un mouvement de foule détecté par la machine provoquera une alerte qui sera confirmée ou infirmée par un opérateur humain. Une alerte ne correspondant pas à la réalité (un faux positif) est par principe moins grave qu’un mouvement de foule non détecté par le système. Les conséquences associées au dysfonctionnement d’un système de reconnaissance faciale sont toujours prises en compte par le concepteur du système en amont de son exploitation. Ces dysfonctionnements peuvent ralentir un processus ou demander un traitement manuel secondaire, forcément onéreux et chronophage. Dans le cas de composantes d’apprentissage automatique, il faut veiller durant la phase d'entraînement du système à partir de données d'entraînement, de la bonne représentativité de cet ensemble de données. Il faut en particulier se méfier des biais d'entraînement produisant des modèles de mauvaise qualité et des performances dégradées. 


Faut-il s’attendre à une banalisation de ces technologies de reconnaissance faciale dans un avenir plus ou moins proche ? Les stades de football et une compétition comme la Coupe du monde sont-ils l’occasion parfaite pour développer de telles technologies ?

Oui, certainement. Les technologies de reconnaissance faciale participent à la détection des menaces et permettent de diminuer les niveaux de risques dans des environnements qui peuvent très vite se dégrader. La gestion des foules au sein des grands rassemblements sportifs ou festifs ne peut plus s'effectuer artisanalement en plaçant un policier derrière chaque spectateur. Il faut de la technologie, discrète, invisible, permanente, intelligente pour faire baisser le risque. La robotique et l’intelligence artificielle sont des alliées incontournables dans la supervision des grandes manifestations sportives. La Coupe du Monde est évidemment un laboratoire d’expérimentation des technologies de sécurité, tout comme l’organisation des jeux olympiques. Les défis et enjeux de sécurité des JO de Paris 2024 sont une priorité pour les pouvoirs publics. La mobilisation en amont de l'événement doit être globale et concertée : les forces de sécurité et de secours, les constructeurs d’enceintes sportives, les concepteurs de systèmes de sécurité (software, hardware, caméras, drones), les équipes sportives, les clubs de supporters. Le citoyen doit avoir conscience du coût de la sécurité de tels évènements dans un contexte de risque terroriste toujours élevé en France. La reconnaissance faciale, la biométrie, les drones d’inspection et de surveillance contribuent chacun à réduire la facture finale pour l’organisateur et pour le spectateur.  

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !