Deepfake : un nouvel outil permet de créer une illusion de vie à partir de nos vieilles photos de disparus <!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
High-tech
Deep Nostalgia proposé par My Heritage permet de donner du relief à certaines photographies et à des personnalités illustres.
Deep Nostalgia proposé par My Heritage permet de donner du relief à certaines photographies et à des personnalités illustres.
©Capture d'écran DR / Deep Nostalgia / My Heritage

Deep Nostalgia

Le site MyHeritage lance un nouveau service baptisé Deep Nostalgia. Cette application donne vie aux vieilles photos et rencontre un franc succès sur les réseaux sociaux. Les internautes se sont amusés avec la technologie et ont ainsi « réanimé » la Joconde, Rimbaud, Napoléon ou Victor Hugo.

Jean-Paul Pinte

Jean-Paul Pinte

Jean-Paul Pinte est docteur en information scientifique et technique. Maître de conférences à l'Université Catholique de Lille et expert  en cybercriminalité, il intervient en tant qu'expert au Collège Européen de la Police (CEPOL) et dans de nombreux colloques en France et à l'International.

Titulaire d'un DEA en Veille et Intelligence Compétitive, il enseigne la veille stratégique dans plusieurs Masters depuis 2003 et est spécialiste de l'Intelligence économique.

Certifié par l'Edhec et l'Inhesj  en management des risques criminels et terroristes des entreprises en 2010, il a écrit de nombreux articles et ouvrages dans ces domaines.

Il est enfin l'auteur du blog Cybercriminalite.blog créé en 2005, Lieutenant colonel de la réserve citoyenne de la Gendarmerie Nationale et réserviste citoyen de l'Education Nationale.

Voir la bio »

Atlantico : Le site de généalogie My Heritage vient d’introduire la technologie Deepfake pour animer les visages des photos de parents décédés. Quelle technologie utilise le site pour parvenir à accomplir cela ? Est-ce une réelle prouesse ? 

Jean-Paul Pinte : Selon le site Oracle.com un Deepfake est un enregistrement vidéo ou audio réalisé ou modifié grâce à l'intelligence artificielle. Ce terme fait référence non seulement au contenu ainsi créé, mais aussi aux technologies utilisées.
Le mot Deepfake est une abréviation de "Deep Learning" et "Fake", qui peut être traduit par "fausse profondeur". En fait, il fait référence à des contenus faux qui sont rendus profondément crédibles par l'intelligence artificielle.
Grâce à l'Intelligence Artificielle, tout le monde peut créer des deepfakes très facilement et sans connaissances techniques particulières en téléchargeant une application simple comme FakeApp. En analysant les mouvements de nos visages, l'algorithme de l'application va pouvoir nous "rajeunir" ou nous "vieillir" assez simplement, par exemple. Ce ne sont pas des Deepfakes élaborés permettant de créer de faux contenus qui peuvent être compromettant, mais ceux-ci deviendront de plus en plus réalistes au fur et à mesure des évolutions technologiques, et donc de plus en plus problématiques...
Alors que certaines entreprises luttent contre les utilisations néfastes de ces Deepfakes comme peuvent le démontrer ces 12 exemples, d'autres adopteraient la technologie pour des raisons plus ou moins ludiques.
Ainsi, MyHeritage, une société d'ascendance familiale qui propose des tests ADN tout comme 23andMe, a dévoilé un nouvel outil alimenté par l'IA appelé «Deep Nostalgia». La technologie prend vos anciennes photos et anime les personnes qu'elles contiennent, produisant une image animée à part entière, un peu comme les Live Photos de l'iPhone.
Pour créer cet outil entièrement automatisé, MyHeritage s'est associé à une société appelée D-ID, qui a écrit un algorithme qui crée ces vidéos animées à partir de vieilles images. La technologie Deepfake a souvent été utilisée pour « apprendre » à un ordinateur à permuter de manière transparente les visages de deux personnes différentes dans une vidéo. Cependant, l’outil de MyHeritage utilise la technologie d’apprentissage en profondeur de D-ID pour animer automatiquement d’anciennes images fixes.
Et les résultats sont assez étonnants. Voici une ancienne photo que MyHeritage a téléchargée sur son outil.

Regardez sur ce site le résultat…
Deep Nostalgia ™ utilise ainsi des algorithmes d'apprentissage en profondeur, pour produire des résultats remarquables. Vous pouvez animer n'importe lequel des visages de vos photos pour les voir bouger, cligner des yeux et sourire. Cela fonctionne aussi bien sur les photos en noir et blanc que sur les photos prises à l'origine en couleur. Il fonctionne également bien sur les photos colorisées et les photos dont les couleurs ont été restaurées à l'aide de MyHeritage In Color ™. Partagez les courtes vidéos animées de vos ancêtres souriant, clignotant et tournant la tête avec vos amis et votre famille et voyez ce qu'ils en pensent!

Comment cela fonctionne ?

La technologie remarquable pour animer des photos a été concédée sous licence par MyHeritage de D-ID, une société spécialisée dans la reconstitution vidéo utilisant le deep learning. MyHeritage a intégré cette technologie pour animer les visages des photos historiques et créer des séquences vidéo réalistes de haute qualité.
Deep Nostalgia ™ fonctionne sur toutes les photos améliorées - que ce soit dans leur palette de couleurs d'origine ou colorisées ou restaurées avec MyHeritage In Color ™. Si votre photo n'a pas encore été améliorée sur MyHeritage, cela se fait automatiquement dans le cadre du processus afin d'obtenir une image aussi haute résolution que possible. Cela garantit des résultats optimaux pour l'animation vidéo.
Il y a plusieurs séquences de gestes possibles qui peuvent être appliquées à une photo signale le blog myheritage.com, chacune provenant d’une vidéo de pilote préenregistrée que nous avons préparée à l’avance. Les vidéos des pilotes guident les mouvements de l'animation afin que vous puissiez voir vos ancêtres sourire, cligner des yeux et tourner la tête.
Ils analysent l'orientation de la tête et la direction des yeux, et choisissons automatiquement quel pilote est le meilleur et sera appliqué au visage sélectionné.
Le résultat est une courte animation vidéo de haute qualité d'un visage individuel qui peut sourire, cligner des yeux et bouger.
Les gestes dans les vidéos de pilotes qui sont utilisés pour créer les séquences d'animation sont de véritables gestes humains et les acteurs de la plupart de ces vidéos de plans sont des employés de MyHeritage. Cependant, le résultat final n'est pas authentique - il s'agit d'une simulation technologique de la façon dont la personne sur votre photo aurait bougé et aurait ressemblé si elle avait été capturée sur vidéo.
Ils pensent qu'il est de notre responsabilité éthique de nous assurer que les gens voient la différence entre les vidéos simulées créées à l'aide de l'apprentissage en profondeur et les photos ou vidéos originales. Pour cette raison, ils différencient les photos animées des originaux à l'aide d'une icône de mouvement spéciale en relief (qui ressemble à une balle en mouvement) dans le coin inférieur gauche des photos. Avec l'icône de baguette magique indiquant que la photo a été améliorée, ces icônes apparaissent sur toutes les photos animées afin que les utilisateurs puissent les distinguer de l'original. Si l'animation a été créée sur une photo colorisée, l'icône de la palette apparaîtra à côté de la baguette magique et des icônes de mouvement dans le coin inférieur gauche.

Changer la séquence des mouvements

Si vous souhaitez contrôler quelle séquence de gestes est sélectionnée, plutôt que de vous en tenir au pilote par défaut qui a été choisi pour vous, vous pouvez le faire à partir de la section Mes photos du site Web. Là, vous pouvez changer le pilote pour une photo qui a déjà été animée. Bien que nous ayons choisi la séquence qui, selon nous, fonctionne le mieux pour le visage sélectionné, vous pouvez jouer avec les différentes options et voir si vous préférez une autre.
Pour changer le pilote de votre animation, cliquez sur le menu déroulant "Animation" et choisissez l'un des pilotes disponibles. Le pilote que nous avons choisi à l'origine apparaîtra avec le mot «par défaut» à côté.

Animation de vos photos à l'aide de l'application mobile

Deep Nostalgia ™ est également disponible sur l'application mobile gratuite MyHeritage, qui peut être téléchargée depuis l'App Store ou Google Play. Si vous possédez déjà l'application, vous devez d'abord la mettre à jour pour vous assurer que vous utilisez la dernière version.
Vous pouvez animer des photos à partir de la section Photos de l'application ou télécharger de nouvelles photos à animer. Nous vous recommandons d'utiliser le scanner intégré de l'application mobile. C'est un excellent moyen de numériser vos photos historiques et de les transférer de leurs albums physiques directement vers MyHeritage, où elles seront conservées pour la postérité. Lorsque vous numérisez vos photos, faites-le dans la résolution la plus élevée possible pour maximiser la qualité et obtenir les meilleurs résultats possibles.

On a souvent associé la technologie deepfake à la tromperie, est-ce la preuve que des utilisations plus vertueuses peuvent exister ? En a-t-on d'autres exemples ?

La technologie Deepfake est en effet trop souvent confondue à une tromperie et il est difficile à ce jour, en dehors de ces applications comme Creepy, une fonction de l'application MyHeritage qui propose de réanimer les morts, de trouver des utilisations plus orientées à faire le bien et à rejeter le mal.
Zao, qui caracole en tête du classement de l'App Store en Chine, est devenu une véritable sensation. Cette application permet de remplacer la tête des acteurs, actrices et autres vedettes par la sienne, de la manière la plus réaliste possible grâce aux technologies de deep fake. L'application, qui n'est disponible qu'en Chine, semble particulièrement efficace : l'app n'a besoin que d'un selfie (de l'utilisateur ou de n'importe qui d'autre) pour l'intégrer au sein d'une vidéo.
Face à cette nouvelle prouesse de l’IA, les esprits se sont échauffés pour craindre le pire et imaginer un futur digne de la série Black Mirror. C’est ce que nous dit ce site, un monde où l’on ne pourrait plus accorder crédit à aucune vidéo, qui pourrait faire dire n’importe quoi à n’importe qui à n’importe quel moment, où chacun pourrait discréditer son adversaire politique ou se refaire une virginité politique en réécrivant ses archives télévisées… Et à l’inverse toute personne en délicatesse dans une vidéo réelle pourrait se défausser en disant qu’il s’agit d’un deep fake qui cherche à lui nuire… Sans compter les usages privés et publics qui pourraient en être fait pour assouvir des vengeances personnelles à coup de fausses vidéos compromettantes…
On peut néanmoins évoquer quelques cas comme les deepfakes qui constituent, à l’heure du Covid un levier pour les secteurs de la pub et de la mode.
En effet, comme le précise ce site, à cause des restrictions liées au Covid-19, il est aujourd’hui compliqué et souvent très onéreux de réaliser des vidéos ou des shooting photos. Pour maintenir, malgré tout, leurs activités et faire durer leurs business, certaines sociétés ont fait appel à la technique du deepfake. C’est le cas par exemple de WPP, l’une des plus grosses agences de pub américaine, qui a utilisé cette technologie pour sa communication interne. Des vidéos ultra-réalistes créées pour les collaborateurs de l’agence, afin de les former.
La chaîne sportive américaine ESPN a, elle aussi, eu aussi recours aux deepfakes pour promouvoir l’une de ses mini-séries : The Last Dance, une série documentaire consacrée à l’équipe de basket des Bulls de Chicago. Une méthode de promotion beaucoup moins coûteuse qu’une campagne classique !
Dans le secteur de la mode, les plateformes de e-commerce s’intéressent aussi de près aux deepfakes. Des catalogues entiers de mannequins – créés artificiellement – sont accessibles pour les marques, qui peuvent bénéficier de séances photos ultra-réalistes, sans débourser un seul euro pour la location d’un studio ou d’un photographe pro.
Cerise sur le gâteau, en mai dernier, Lil Miquela, l’influenceuse instagram créée de toute pièce par un algorithme – qui dépasse à ce jour les 2,5 millions d’abonnés sur la plateforme – a signé avec CAA, l’agence qui représentent les supers-stars bien réelles comme Justin Bieber ou Britney Spears !

L’utilisation de données pour la création de telles animation pose-t-elle une question relative aux données personnelles ? 

Une étude réalisée par Deeptrace, une société spécialisée dans la détection deepfakes, montre l’explosion de ce problème depuis 2019. Relayée par CNN, elle explique que le nombre de deepfakes détectés par son service est passé de 7 964 en décembre à 14 687 récemment, soit une hausse de 84% en moins d’un an. Pour arriver à ce résultat, Deeptrace analyse des espaces communautaires en ligne particulièrement concernées, comme Reddit ou YouTube, et uniquement en anglais. Sans étonnement, la très grande majorité (96%) concernent des vidéos pornographiques. 8 des 10 premiers sites du genre contiennent d’ailleurs ce genre de montages.
L’application DOUBLICAT évoque la question des données personnelles. Cette application ukrainienne qui est entrée dans le top 5 des applications les plus téléchargées sur Playstore en France mi-2020 a suscité certaines interrogations. D’autres applications du même genre, comme la chinoise Zao, ou la russe FaceApp, avaient été très critiquées à ce sujet. Les conditions d’utilisation de Doublicat précisent que les contenus «générés et téléchargés» appartiennent à l’utilisateur, mais qu’ils peuvent servir à améliorer ses services. Les contenus ne sont en tout cas, selon la société, pas utilisés à des fins de reconnaissance faciale, ni vendus à des tiers selon cet article.
Si l’arsenal législatif permettant de sanctionner de telles pratiques existe déjà en France, son application sur le terrain se montre toujours très compliquée. Les deepfakes en tant que créations numériques recoupent en effet des problématiques majeures liées à Internet comme la liberté d’expression, la neutralité des plateformes (Facebook, Twitter, etc.), mais aussi le droit à l’anonymat. C’est ce que nous rappelle le Cabinet Bensoussan.
« Si vous portez atteinte à une personne, la victime a le droit d’obtenir votre nom, prénom et adresse pour vous poursuivre devant les tribunaux, explique l’avocat. C’est l’hébergeur qui est détenteur de cette sorte de clef. Mais beaucoup de personnes l’ignorent encore ».
Il faut avant tout responsabiliser les individus face à l’usage de ces outils et aux ravages qu’ils peuvent provoquer, tel le cyber-harcèlement. Alain Bensoussan rappelle la triste réalité :
« Soit vous êtes assez puissant pour prendre un avocat ou lancer une contre-information, soit vous êtes un peu faible et vous allez vous faire écraser. Il faut donner le pouvoir aux associations de lutter en votre nom ».
Protéger ses données et notamment les ressources comme les clips vidéo, et être en mesure de les restaurer ou de les localiser rapidement peut aider à atténuer les inquiétudes des particuliers, entreprises et actionnaires. Ne pas être en mesure de le faire peut potentiellement causer d’importants dommages à l’entreprise, mais aussi à la carrière personnelle d’un individu victime d’un détournement.
Le 24 septembre 2019, le géant du numérique Google a mis à disposition un set de données contenant 3000 deepfakes à destination des chercheurs spécialisés dans leur détection. Ainsi, ils pourront entraîner leurs outils plus facilement.

À terme, à quel type d’usage pourrait être utilisée la technologie Deepfake ?

Difficile de voir un avenir serein pour les Deepfakes. L’objectif est simple : manipuler les perceptions à travers la désinformation. Cette fake news évoluée cherche avant tout à détourner l’attention des publics pour faire passer des éléments faux comme étant vraisemblables. L’IA est donc utilisée selon plusieurs techniques dans le but de permettre aux machines d’imiter une forme d’intelligence réelle.
Selon un article du portail de l’IE, Le deepfake réprésente encore une nouvelle arme encore méconnue.
Aujourd’hui, les campagnes de sensibilisation contre les « fake news » appellent à la prudence quant aux informations relayées grâce aux réseaux sociaux. Malheureusement, pour l’instant, très peu de professionnels de l’information s’attardent sur les deepfakes qui deviennent peu à peu une arme dangereuse. Future Advocacy, think tank britannique, opère chaque jour pour démontrer que les deepfakes sont devenus une préoccupation d’ordre public. Le responsable de ce groupe de réflexion, Areeq Chowdhury, souligne par ailleurs la désinvolture de la sphère politique face aux dangers des hyper-trucages. 
Actuellement, 96 % de ces derniers demeurent dans la sphère du divertissement en parodiant certaines célébrités américaines. Il va toutefois de soi que la sphère politique sera touchée par ces enjeux. Même si le phénomène est apparu fin 2017, en deux ans des trucages visant des personnes politiques ont été observés.
« L’informatique doit être au service de chaque citoyen. [...] Elle ne doit porter atteinte ni à l’identité humaine, ni aux droits de l’homme, ni à la vie privée, ni aux libertés individuelles ou publiques ». En novembre 2019, la CNIL met en avant sa volonté d’instaurer un réel cadre législatif et réglementaire concernant la reconnaissance faciale, donc à la « conception » de deepfakes visuels. Le respect de la vie privée et le droit à l’image semblent effectivement remis en question pour répondre à des enjeux stratégiques, économiques et politiques.

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !