Snowden finalement plus fort que la NSA ? Espionnage et surveillance : le match humain contre électronique <!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
High-tech
Edward Snowden.
Edward Snowden.
©Reuters

David contre Goliath

Les agences de renseignement craignent de plus en plus un "effet Snowden", où un agent s'enfuirait avec un CD-Rom comprenant des milliers de données. L'électronique est-il devenu le talon d'Achille du renseignement ?

Alain Chouet

Alain Chouet

Alain Chouet est un ancien officier de renseignement français.

Il a été chef du service de renseignement de sécurité de la DGSE de 2000 à 2002.

Alain Chouet est l'auteur de plusieurs ouvrages sur l’islam et le terrorisme. Son dernier livre, "Au coeur des services spéciaux : La menace islamiste : Fausses pistes et vrais dangers", est paru chez La Decouverte en 2011.

Voir la bio »

Atlantico : Ben Rhodes, conseiller de la Maison Blanche pour les communications stratégiques, évoquait récemment un "effet Snowden" concernant le quotidien des agences, ces dernières s'inquiétant désormais de l'éventualité de voir chacune de leurs opérations fuiter dans la presse. Un fait qui serait notamment lié à l'informatisation de plus en plus importante des systèmes de renseignement outre-Atlantique. Peut-on dire que le "tout-électronique" souhaité par Washington est finalement en train de se retourner contre son géniteur ?

Alain Chouet : Le renseignement d’origine technique n’est ni plus ni moins vulnérable aux « fuites » que le renseignement par moyens humains ou opérationnels à partir du moment ou une personne qui participe au processus en révèle les détails au public.

Ce qui est surprenant dans l’affaire Snowden c’est que, malgré les procédures très strictes de cloisonnement et de protection du secret aux Etats-Unis qui comptent parmi les plus restrictives au monde, un individu isolé et placé à un échelon très subalterne de la hiérarchie ait pu avoir accès à un nombre incalculable de données, les dupliquer, s’enfuir sans contrôle et les divulguer. On avait eu le même problème avec l’affaire Wikileaks et la révélation de milliers de télégrammes diplomatiques américains.

L’informatisation des données est évidemment un problème puisqu’il est plus facile de s’éclipser avec un CD ou une clé USB contenant des dizaines de milliers de documents qu’avec leurs tonnes d’équivalent papier, mais cela n’explique pas les failles du système de protection de leurs données confidentielles que les autorités américaines - si habiles à contourner ceux des autres - auraient sans doute intérêt à revoir de fond en comble.

D'aucuns estiment que l'on peut relativiser la toute-puissance de systèmes comme PRISM et consorts, puisque le nombre colossal de données qu'ils permettent de collecter ne peuvent pas le plus souvent être analysées faute de moyens humains. De telles affirmations sont-elles fondées ?

Ce genre d’affirmation témoigne d’une grande ignorance de la réalité et des objectifs du renseignement technique. Le renseignement technique moderne s’intéresse d’abord aux métadonnées, c'est-à-dire à l’emplacement, au mode de fonctionnement et à l’environnement des émetteurs et récepteurs de signaux. Ainsi, si l’on détecte qu’un téléphone portable qui émet habituellement depuis la banlieue parisienne vers la banlieue de Marseille se met soudain à émettre depuis ou en direction de la Syrie ou l’Afghanistan, on pourra en déduire qu’il se passe quelque chose d’anormal et c’est à ce moment là seulement qu’on passera éventuellement à l’analyse du contenu. Les métadonnées se prêtent parfaitement à un traitement informatique de masse en temps réel.

Si la NSA a intercepté en décembre 2012 et janvier 2013 plus de 70 millions de communications en France, ce n’était pas pour en découvrir le contenu mais pour dresser une « cartographie » des réseaux de personnes se connaissant entre elles. C’est en cette période de fin d’année et de vœux que la plupart des gens réactivent tous leurs contacts même les plus épisodiques. On constitue ainsi une base de données à partir de laquelle on pourra ensuite détecter des anomalies éventuelles et approfondir la recherche sur les cas anormaux.

A l'inverse, on entend souvent vanter la qualité des services de renseignement français qui s'appuieraient davantage sur l'aspect humain du renseignement. Qu'en est-il concrètement ?

Depuis sa création en 1952, la NSA est tout à fait officiellement chargée à l’échelle planétaire du recueil par moyens techniques du renseignement circulant par voie hertzienne ou filaire et susceptible de concerner la sécurité ou les intérêts des Etats-Unis. On ne saurait lui reprocher d’essayer de s’acquitter de la mission qui lui a été réglementairement confiée. Et elle le fait avec d’autant plus d’ardeur et de façon d’autant plus extensive, qu’elle est soumise, comme tout le monde outre-atlantique, à la dictature du « publish or perish » et à de drastiques impératifs de rendement quantitatif - la quantité étant toujours plus incontestablement et immédiatement mesurable que la qualité. Or le renseignement technique est facilement quantifiable, ne serait-ce que par le nombre d’interceptions effectuées, alors que le renseignement humain peut toujours prêter à contestation ou critiques surtout s’il porte sur le secret des intentions.

Enfin, le renseignement technique comporte peu de risques politiques et encore moins physiques puisqu’il s’exerce sur le territoire du donneur d’ordre tandis que le renseignement humain, qui doit bien s’exercer sur le territoire cible, en comporte beaucoup. C’est ce qui a conduit les différentes administrations américaines à miser gros sur le renseignement technique et à délaisser relativement un renseignement humain qui avait de plus fréquemment le défaut de ne pas valider les options stratégiques de la Maison Blanche durant les deux mandats de G.W.Bush…

Disposant de moins de moyens et de moins de technologies, les « petits » services européens - y compris français - n’ont pas eu l’opportunité de faire le choix du tout technologique et ont donc continué une politique de renseignement moins sophistiquée mais relativement plus équilibrée entre le technique, l’humain et l’opérationnel.

S'il devait y avoir une configuration "idéale" quelle serait la meilleure façon d'articuler l'électronique et l'humain dans le renseignement ?

Les deux sont indissociables. Le renseignement technique est indispensable à la connaissance d’échanges d’informations dont le contenu peut recouvrir des menaces contre notre communauté nationale. Mais le problème du renseignement technique est que l’observateur n’est pas maître de la manœuvre et ne peut recueillir que ce que les interlocuteurs adverses veulent bien échanger. Avec le risque de désinformation s’ils se savent écoutés. Il permet de défricher le terrain, de valider des hypothèses et des indices, de suivre des évolutions dont on connaît l’origine. Mais pour aller au-delà, et en particulier pour percer le secret des intentions (ce qui est le but ultime de tout service de renseignement), il faut bien aller à la source de ces intentions qui est par définition un décideur humain.

Ainsi, il est évidemment important de savoir qu’un chef djihadiste correspond par voie électronique avec tel ou tel complice potentiel à tel ou tel endroit de façon à pouvoir les suivre et les neutraliser. Mais il est tout aussi important de savoir ce qu’il a l’intention de faire et que -sauf à être complètement stupide - il n’évoquera pas au téléphone mais seulement de bouche à oreille auprès d’un cercle restreint de connaissances dans des lieux inaccessibles aux écoutes.

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !