De plus en plus de chercheurs en IA pensent que les deep fakes deviendront parfaitement indétectables<!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
High-tech
Un journaliste de l'AFP visionne une vidéo manipulée avec l'intelligence artificielle.
Un journaliste de l'AFP visionne une vidéo manipulée avec l'intelligence artificielle.
©ALEXANDRA ROBINSON / AFP

La Minute Tech

Les progrès réalisés en matière de deep fake suscitent beaucoup d'inquiétude.

Jean-Paul Pinte

Jean-Paul Pinte

Jean-Paul Pinte est docteur en information scientifique et technique. Maître de conférences à l'Université Catholique de Lille et expert  en cybercriminalité, il intervient en tant qu'expert au Collège Européen de la Police (CEPOL) et dans de nombreux colloques en France et à l'International.

Titulaire d'un DEA en Veille et Intelligence Compétitive, il enseigne la veille stratégique dans plusieurs Masters depuis 2003 et est spécialiste de l'Intelligence économique.

Certifié par l'Edhec et l'Inhesj  en management des risques criminels et terroristes des entreprises en 2010, il a écrit de nombreux articles et ouvrages dans ces domaines.

Il est enfin l'auteur du blog Cybercriminalite.blog créé en 2005, Lieutenant colonel de la réserve citoyenne de la Gendarmerie Nationale et réserviste citoyen de l'Education Nationale.

Voir la bio »

Atlantico : L’intelligence artificielle permet, notamment, la production de vidéos faussées mettant en scène des figures politiques ou des personnages publics dans des rôles qui ne sont pas les leurs. Faut-il penser que, la technologie devant plus puissante et plus avancée, ces Deep fakes deviendront indétectables ?

Jean-Paul Pinte : À quelques mois des élections européennes, la prolifération de «faux» inquiète la classe politique, qui redoute les dégâts de cette technologie quasi indétectable.

L’utilisation de réseaux de neurones artificiels et de Deep Learning a permis aux internautes du monde entier d’exploiter des images, des vidéos et des sources audios pour créer des vidéos réalistes où le visage ou le corps d’une personne ont été numériquement modifiés, afin de faire dire ou faire des choses qui n’ont jamais été réellement dites ou faites. Ces vidéos et images détournées sont souvent utilisées à des fins malveillantes pour propager de fausses informations et pervertir la réalité.

Les fake news sur les réseaux sociaux gagnent actuellement en importance et ont un impact significatif sur l’opinion publique et l’arène politique. Ils sont la principale source de ce que l’on appelle la post-vérité. La post-vérité est un vaste phénomène ayant un impact sur de multiples aspects politiques, économiques et sociaux. 

C’est en 2016, avec l’élection de Donald Trump et le référendum sur le Brexit, que la relation entre post-vérité et fake news est devenue évidente dans l’opinion publique.

Face à la déferlante de désinformation en ligne, la Californie exige même désormais que tous les élèves de la maternelle à la terminale acquièrent des compétences en matière d'éducation aux médias, telles que la reconnaissance des infox et la réflexion critique sur ce qu'ils rencontrent en ligne !

L'expression fake news pose aussi question quand il s'agit de qualifier une affirmation historique. En effet, historiennes et historiens se gardent bien de prétendre détenir la vérité et avancent le doute méthodique comme principe cardinal de leur discipline. 

Pour arriver à des consensus scientifiques, ils critiquent, comparent et nuancent les sources dont ils disposent, et soumettent leurs travaux au jugement de leurs pairs.

La Russie et l'Ukraine se livrent aussi une cyberguerre, à coup 'espionnage et de fake news. Aux cyberattaques russes s'ajoutent la désinformation, les fake news. "Les Russes cherchent aussi à éroder la sympathie et susciter la méfiance envers l'Ukraine parmi le public occidental pour que les dirigeants en viennent à craindre des répercussions politiques ou électorales s'ils continuent à aider l'Ukraine", analyse Alexis Rapin, chercheur à l'Université du Québec à Montréal.

ChatGPT et Bard ont encore du travail à faire en matière de lutte contre les « fake news ». Les deux robots d'intelligence artificielle, lancés respectivement par OpenAI et Google, continuent de propager des fausses informations sur des sujets d'actualité, selon une nouvelle étude de NewsGuard. Evalués à deux reprises, en mars et août 2023, ChatGPT-4 et Bard ne montrent aucun signe d'amélioration.

L’intelligence artificielle va continuer à multiplier les fausses informations mais aussi leur efficacité. Ceci reste un défi majeur des années à venir.

Comment repérer, en l’état actuel des choses, une vidéo faussée de type deep fake ? Quels sont les signes auxquels il faut rester attentif ?

Les chercheurs et les journalistes doivent souvent vérifier le contenu de vidéos publiées sur les réseaux sociaux et les plateformes de partage de fichiers, tels YouTube, Twitter ou Facebook. Mais un seul outil ne suffit pas à authentifier toutes les vidéos, et cette tâche est parfois quasiment impossible à effectuer autrement qu’en obtenant le fichier d’origine.

Depuis l'apparition des premières deepfakes, plusieurs éléments caractéristiques de ces fausses vidéos ont été identifiés. Les plus élémentaires d'entre elles ne sont par exemple pas capables de simuler un clignement naturel des yeux. Lors du visionnage d'une vidéo, cet indice fait donc partie des éléments à surveiller.

D'autres indices doivent attirer l'attention, comme les incohérences d'éclairage entre le visage du personnage et le reste de son corps. « Par exemple si un autre visage a été échangé avec celui de Mariah Carey dans un clip qui a été tourné de nuit, on pourra constater une différence de luminosité et de bruit entre les différentes parties de l'image », explique Tina Nikoukhah, doctorante en traitement d'image au Centre Borelli, laboratoire de recherche de Saclay.

Pour être attentif à ces détails, une astuce peut être d'isoler une ou plusieurs images de la vidéo et de l'examiner. Plus difficile à repérer à l'œil nu, la fréquence des battements cardiaques des protagonistes d'une vidéo, que les deepfakes ont parfois du mal à imiter, est un autre élément à surveiller.

La première étape de la vérification de contenus vidéos est la même que pour la vérification d’images : exécuter une recherche d’image inversée sur Google ou via un autre service, par exemple TinEye.

Les auteurs de vidéos truquées sont d’habitude peu créatifs et partagent donc le plus souvent des vidéos qu’ils auront trouvé en ligne, s’étant assurés au préalable qu’elles ne contiennent aucun élément révélant la supercherie, comme par exemple une personne s’exprimant dans une langue qui ne correspond pas à l’événement en question nous rappelle ce site professionnel.

Ce Manuel  nous donne aussi quelques conseils de premier ordre pour vous aider à faire le point sur ces fausses vidéos. 

Si ces signes disparaissent à l’avenir, comment sera-t-il possible de se préserver contre les risques que posent de telles vidéos ; notamment en matière de désinformation ?

Pour la plupart des internautes la désinformation est devenue particulièrement vrai avec la popularité de IA générative et la possibilité de créer des deepfakes.

L'IA générative (Gen-AI) est une forme d'intelligence artificielle qui produit du texte, des images et du son originaux. Les modèles Gen-AI sont formés sur des ensembles de données utilisés pour créer du nouveau contenu, en s'appuyant sur les modèles appris au cours du processus de formation.

Il faut considérer qu’il y aura toujours des risques à consulter des vidéos sans connaître les moyens de tomber sur une arnaque à l’image ou à la vidéo.

Pour cela, il convient de mettre en place des moyens dés le plus jeune âge pour apprendre à déceler les failles de tels systèmes de fake news et forger un esprit critique car une dépendance excessive à l’IA générative pourrait avoir un impact négatif sur les capacités de pensée des enfants. 

Il est aussi question des relations parasociales et d’intimidation car il existe une tendance inquiétante selon laquelle les jeunes utilisateurs copient les comportements d’intimidation et les dirigent vers un chatbot IA. Sur les réseaux sociaux, certains utilisateurs encouragent les autres à « intimider » les chatbots en les abusant et en les maltraitant en général. 

Même si les enfants n’intimident pas d’autres humains, on s’inquiète de la façon dont les interactions virtuelles pourraient normaliser les comportements d’intimidation selon ce site.

Un exemple d’un tel chatbot est Replika. Replika est un chatbot IA personnalisé qui encourage les utilisateurs à partager des informations personnelles. Plus un utilisateur partage d’informations avec lui, plus il peut personnaliser ses réponses.

Bien que le site Web prétende s’adresser uniquement aux plus de 18 ans, il ne nécessite aucune vérification de l’âge. En tant que tel, les enfants rencontreront peu d’obstacles lors de l’utilisation du site.Enfin on peut aussi craindre la génération de contenu illégal et des rapports suggèrent que les enfants utilisent de plus en plus les outils d’IA pour générer des images indécentes de leurs pairs, grâce à des applications de « déshabillement » facilement accessibles. Les images indécentes de moins de 18 ans sont illégales quelles que soient les circonstances de leur production. Ceci comprend matériel pédopornographique (CSAM) produit avec la technologie deepfake.

On l’a bien compris, si une frange de la société est déjà passée à la trappe des fakenews, c’est sur notre jeunesse et l’éducation qu’il convien de compter pour assurer une protection de nos données et ADN numériques…

Quelles autres avancées peut-on attendre, en matière de deep fake ? Faut-il d’office condamner ces nouvelles technologies ou seulement l’usage qui en est aujourd’hui fait ? (quels pourraient être les avantages, notamment en matière de filmographie ou de cinématographie ?)

Face à la montée en puissance des deep fakes, les gouvernements, entreprises et chercheurs sont engagés dans une course contre la montre pour développer des méthodes de détection et de lutte contre ces faux contenus créés par intelligence artificielle.

Les principales utilisations malveillantes des deep fakes peuvent se résumer aujourd’hui autour des phénomènes suivants : 

·        Propagande politique

·        Diffamation de personnalités publiques

·        Fausses informations et désinformation

·        Attaques personnelles ou harcèlement

·        Escroqueries et fraudes financières 

Une tribune du Journal Le Monde évoque qu’à l’heure où les réseaux sociaux sont la première source d’information pour les Français de moins de 34 ans, l’impact des faux contenus est plus que jamais d’actualité. Particulièrement toxiques sont les « deepfakes », souvent générées par des algorithmes de création de contenu de plus en plus perfectionnés – notamment les generative adversarial networks (« GANs »). Le phénomène est d’autant plus difficile à appréhender qu’il se développe dans ce vaste « no man’s land » de la « vérité alternative » où la frontière entre le vrai et le faux est floue.

Dans le cinéma, on  a tiré parti des avantages de la technologie Deepfake et l’acteur Val Kilmer a perdu sa voix caractéristique suite à un cancer de la gorge en 2015, mais la technologie de l’hypertrucage de Sonantic a récemment été utilisée pour permettre à l’acteur de “parler”. (Son fils a fondu en larmes en entendant à nouveau la “voix” de son père.)

Les hypertrucages ont également été utilisés pour surmonter les barrières linguistiques, notamment par le grand footballeur anglais David Beckham dans sa campagne de lutte contre le paludisme Malaria No More. Ici, les hypertrucages ont permis à Beckham de délivrer son message dans neuf langues différentes. Parfois, les hypertrucages ont aussi simplement vocation à nous divertir, comme dans cette installation artistique qui donne la possibilité aux utilisateurs de prendre un selfie “surréaliste” avec Salvador Dalí.

Alors que les hypertrucages sont de plus en plus omniprésents dans les différents aspects des médias numériques, les particuliers et les entreprises qui cherchent à tirer parti de la technologie sous-jacente devront au préalable passer en revue leurs arrangements contractuels existants et tenir compte du droit applicable dans ce domaine. En outre, lorsqu’ils signent des contrats, les talents devraient examiner attentivement les conditions relatives à leur droit à l’image afin de conserver un contrôle suffisant sur la manière dont ce droit pourrait être utilisé eu égard aux technologies reposant sur l’intelligence artificielle. S’ils sont appréhendés de manière réfléchie, le développement et l’utilisation des hypertrucages peuvent avoir des retombées positives, tant sur le plan commercial que social.

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !