Intelligence artificielle : les progrès du deep learning fléchissent fortement sous le poids de l’investissement qu’il requiert | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
Science
Les outils de deep learning sont notamment utilisés dans les logiciels de reconnaissance faciale.
Les outils de deep learning sont notamment utilisés dans les logiciels de reconnaissance faciale.
©SAUL LOEB / AFP

Puissance nécessaire

Intelligence artificielle : les progrès du deep learning fléchissent fortement sous le poids de l’investissement qu’il requiert

Les progrès du deep learning - une forme d’intelligence artificielle ayant permis de nombreuses avancées notamment en matière de reconnaissance faciale ou vocale, de santé ou de traductions automatiques - sont aujourd'hui limités par le ralentissement de la croissance de la puissance informatique.

Laurent Alexandre

Laurent Alexandre

Chirurgien de formation, également diplômé de Science Po, d'Hec et de l'Ena, Laurent Alexandre a fondé dans les années 1990 le site d’information Doctissimo. Il le revend en 2008 et développe DNA Vision, entreprise spécialisée dans le séquençage ADN. Auteur de La mort de la mort paru en 2011, Laurent Alexandre est un expert des bouleversements que va connaître l'humanité grâce aux progrès de la biotechnologie. 

Vous pouvez suivre Laurent Alexandre sur son compe Twitter : @dr_l_alexandre

 
Voir la bio »

Atlantico : A quel point les investissements nécessaires au développement du deep learning vont-ils augmenter ? Les coûts risquent-ils de devenir si élevés qu'ils entraveront le progrès de cette technologie ?

Dr Laurent Alexandre : Nous sommes dans une phase où la progression de la puissance informatique a tendance à ralentir sur les processeurs traditionnels : il y a un petit plafonnement de la loi de Moore. On n continue à augmenter la puissance informatique puisque aujourd'hui, TSMC, le leader mondial de la gravure des microprocesseurs, est en train de finaliser des microprocesseurs gravés en 3 nanomètres, c'est à dire 15 atomes de large pour chaque transistor, ce qui est incroyablement fin, mais nous faisons face à un plafonnement des microprocesseurs traditionnels.

En revanche, pour les microprocesseurs dit GPU, nous voyons une poursuite de la croissance de la puissance informatique. Ce sont les microprocesseurs les plus utilisés pour faire de l'intelligence artificielle de type deep learning. Depuis 2011, moment où les réseaux de neurones - le deep learning - sont devenus opérationnels parce qu'on avait suffisamment de données pour les éduquer et de puissance informatique pour les construire, on a fait des progrès absolument spectaculaires.

Pour autant, aujourd'hui, on arrive à un goulet d'étranglement. La puissance informatique ralentit, on l'a vu, et le coût des microprocesseurs augmente à cause de la pénurie mondiale de puces électroniques. De plus, sur le plan technique, nous sommes dans une phase où on commence à avoir utilisé toute la subtilité des réseaux de neurones et où nous avons besoin de percées conceptuelles pour aller plus loin. D'autre part, on a fait exploser depuis dix ans la quantité d'informations, d'images, avec lesquelles on peut éduquer les réseaux de neurones, notamment grâce aux réseaux sociaux, à Google et aux Chinois qui consolident des quantités incroyables d'informations. Mais là encore, nous observons un essoufflement de la croissance des réseaux sociaux. Les gens ne peuvent pas passer plus de 24 heures par jour sur Instagram et sur Facebook. Ce ralentissement de la croissance des données collectées par les réseaux sociaux est à prendre en compte car ils sont la nourriture des réseaux de deep learning.

À Lire Aussi

Google proclame son attachement à une intelligence artificielle éthique. Les équipes concernées en sont moins sûres…

Les trois raisons du plafonnement partiel du deep learning sont donc le fait que la puissance informatique croît un peu moins vite qu'avant, que la croissance des data disponibles chez les géants du numérique fléchit, et qu'il n'y a pas de percée conceptuelle pour améliorer les réseaux de neurones. Depuis deux ou trois ans, on améliore les techniques qui ont été implémentées à partir de 2011, mais sans rupture. De ce fait, pour améliorer l'intelligence artificielle de type deep learning, on est obligé d'augmenter considérablement la puissance informatique. Cela a un coût élevé. Concrètement, pour aller plus loin, il faut aujourd'hui acheter plus d'ordinateurs et de de puissance informatique.

Les deux obstacles au deep learning sont donc l'argent et la masse d'information à injecter ?

Oui, en particulier l'argent qui est nécessaire pour avoir plus de puissance informatique, puisque la croissance de la puissance informatique ralentit.

L'augmentation des coûts environnementaux a-t-elle un impact ?

Non, car le coût de l'électricité n'augmente pas tant que ça. Mais la construction d'éoliennes et de panneaux photovoltaïques se traduit, notamment en Allemagne, par une augmentation des émissions de CO2. Cela pose problème car la puissance informatique, dans un pays comme l'Allemagne, est nourrie au charbon. En France aussi, du fait de la fermeture de la centrale de Fessenheim, quand on fait tourner un ordinateur, on émet plus de CO2 aujourd'hui qu'il y a deux ans. A terme, le risque est qu'on limite les applications d'intelligence artificielle parce qu'elles consomment énormément d'énergie et qu'elles émettent trop de CO2 dans les pays qui ont abandonné le nucléaire.

À Lire Aussi

Pour le patron de Google, l’intelligence artificielle sera plus puissante que la découverte du feu ou de l’électricité. Mais quand…?

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !