Non, ça n’est pas Jay Z que vous entendez sur cette démo : et maintenant, l’IA s’attaque à la voix<!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
Nouveau monde
L'artiste américain Jay-Z en janvier 2015, lors d'un match de basket-ball à Los Angeles
L'artiste américain Jay-Z en janvier 2015, lors d'un match de basket-ball à Los Angeles
©Andrew D. Bernstein / NBAE / Getty Images / AFP

Nouvelle ère

Alexander Polonsky

Alexander Polonsky

Alexander Polonsky est Directeur de recherche, co-fondateur Bloom

Voir la bio »

Atlantico : Une musique dévoilée récemment et reprenant la voix de Jay-Z paraît plus que réelle, bien que l'artiste ne l'ait jamais enregistrée.  Comment est-ce possible ?

Alexander Polonsky : Créer une musique originale pour un artiste tel que Jay-Z n’a rien de compliqué en réalité. Le fait qu’il ait une très large discographie permet d’entraîner la machine sur la base des musiques déjà existantes. Par la suite, il suffit de lui demander de créer du contenu original sur la base de l’historique des chansons données. Si Jay-Z n’avait enregistré que très peu de musiques, ce serait beaucoup plus compliqué voire impossible d’avoir un résultat aussi précis. 

Est-ce que l’IA menace aussi les métiers créatifs comme ici ?

Ça pourrait être le cas pour d’autres métiers dits créatifs mais dans le cas d’un chanteur, il faut souligner le fait que des protections légales existent. Ces lois rendent impossible la monétisation d’un contenu qui ne serait pas vendu par Jay-Z lui-même sur le marché public. À la limite, on pourrait considérer que ce serait possible de vendre des musiques générées par l’intelligence artificielle sur le « marché noir » mais en pratique, ce ne serait pas concevable dans le sens ou ce serait plus que limité.  Le seul effet que pourrait avoir le fait de générer des musiques de grands artistes serait d’avoir un « buzz » sur les réseaux sociaux. Mais mis à part faire de la pub pour le chanteur en question, il n’y aurait aucun effet négatif à cela. 

Pour les images créées par IA, il y a des moyens, de plus en plus subtils, de reconnaître que l’image n’est pas authentique. Existe-t-il la même chose avec le sonore ?

Tout à fait, et ce sont les mêmes types d'outils qui existent aussi pour prêcher le vrai du faux pour un fichier vidéo qu’un fichier audio.

Est-ce qu’en combinant ce que l’on peut faire de "mieux" en termes de vidéo « deepfake » et audio, on pourrait craindre qu’ils deviennent presque parfaits et indétectables ?

Tout ce qui est fait actuellement reste, pour l'heure, encore détectable. Mais oui, dans le futur ça va devenir de plus en plus compliqué à détecter. C'est vraiment très similaire aux virus informatiques à et tout ce qui est cryptage, etc. Pour l'instant, on arrive à conserver les données que l’on veut vraiment protéger, mais on se demande toujours si c’est vraiment sûr ? Que ce soit pour la détection de « deepfake » ou de virus, la question que l’on se posera toujours c’est « qui gagnera finalement ? C’est très difficile à dire aujourd'hui mais je pense qu’à un moment les technologies seront tellement complexes, que l’accès à ces technologies sera réservé à des gouvernements et des grands groupes.

On parle beaucoup des effets néfastes, mais y a-t-il du positif dans ces nouvelles technologies ?

Oui tout à fait, sur le plan de la santé notamment. Si je prends mon expérience personnelle, je peux citer l’exemple de mon père qui a perdu la voix il y a quelques temps à cause d’une maladie. Aujourd’hui, grâce à l’intelligence artificielle, il peut communiquer avec nous en écrivant ce qu’il veut dire, et la machine « parle » pour lui avec la voix qu’il avait en se basant sur des audios que nous avons fait « apprendre » à la machine. Au-delà de toutes les dérives dont on parle, mise entre de bonnes mains, cette technologie permet tout de même de faire des miracles !

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !