Et maintenant, des machines qui apprennent toutes seules : ces mille et une petites révolutions que prépare Google dans son centre de recherche de Zurich | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
High-tech
Et maintenant, des machines qui apprennent toutes seules : ces mille et une petites révolutions que prépare Google dans son centre de recherche de Zurich
©

La minute tech

Et maintenant, des machines qui apprennent toutes seules : ces mille et une petites révolutions que prépare Google dans son centre de recherche de Zurich

En créant dans son centre de recherche à Zurich une équipe dédiée à l'apprentissage par les machines de la reconnaissance d'un objet ou d'une structure dans un ensemble de données (Machine Learning), Google poursuit son travail d'industrialisation d'applications destinées à remplacer les humains dans les tâches cognitives élémentaires.

Christophe Benavent

Christophe Benavent

Professeur à Paris Ouest, Christophe Benavent enseigne la stratégie et le marketing. Il dirige le Master Marketing opérationnel international.

Il est directeur du pôle digital de l'ObSoCo.

Il dirige l'Ecole doctorale Economie, Organisation et Société de Nanterre, ainsi que le Master Management des organisations et des politiques publiques.

 

Le dernier ouvrage de Christophe Benavent, Plateformes - Sites collaboratifs, marketplaces, réseaux sociaux : comment ils influencent nos Choix, est paru en mai  2016 (FYP editions). 

 
Voir la bio »

Atlantico : Google a créé, dans son centre de recherche à Zurich, une équipe dédiée au "machine learning". Que signifie cette expression ? Quel est l'objectif de cette équipe? Et quels sont ses domaines de travail?

Christophe Benavent : Le machine learning est un ensemble de méthodes destinées à  "apprendre" aux machines à reconnaitre un objet (apprentissage supervisé) ou à identifier une structure dans un ensemble de données (apprentisage non supervisé). Pratiquement, on y retrouve des techniques parfois anciennes et communes à la statistique et à ses variantes disciplinaires (économétrie, biométrie, pyschométrie) mais employées dans un esprit particulier : celui du traitement de l'information et d'un grand nombre d'informations. Parmi les méthodes anciennes, évoquons les méthodes de clustering hiérarchiques inventées dans les années 1960 pour résoudre des problèmes de segmentation marketing, sans oublier les modèles de régression au coeur de l'économétrie dont un : le modèle de régression logistique, qui a connu un grand succès par sa capacité à prédire la probabilité d'apparition (ou non) d'un événement. Cependant, un ensemble de techniques est plus original et spécifique à ce domaine de l'informatique. C'est celui des réseaux de neurones dont le principe a été formulé dans les années 1950 et qui connait depuis 2005 de nouveaux développements grâce à la conjugaison de capacités de calcul accrues, de la disponibilité de grands jeux de données, et des travaux de quelques chercheurs qui ont résolu certaines impasses. Ce domaine est désormais popularisé sous le terme de Deep Learning, qui trouve son origine dans le fait d'utiliser de nombreuses couches de neurones (alors qu'on se limitait à peu) et par conséquent d'un très grand nombre de paramètres. 

Ses domaines d'application sont aujourd'hui double : le traitement du langage naturel et celui de l'identification d'objets et de concept dans les images fixes et animées. Ce sont ceux du centre de Zurich, et ceux sur lesquels depuis des années Google travaille, comme les autres sociétés. La création du centre de Zurich vise simplement à être présent en Europe où se trouvent de nombreux ingénieurs, informaticiens, mathématiciens et autres spécialistes et donc à profiter de ressources humaines renouvelées pour poursuivre un programme  de recherche déjà bien structuré. On notera que Facebook a fait la même chose à Paris depuis quelques mois, "relocalisant" le patron de son IA, qui est français (Yan Le Cun)!

Quelles innovations leur doit-on déjà?

Il faut d'abord s'entendre sur la notion "innovation". S'il s'agit d'inventions fondamentales, celles qui sont employées dans le machine learning sont désormais anciennes, elles ont de 15 à 200 ans au moins !  S'il s'agit d'applications concrètes, elles se multiplient ces dernières années.  Un très bon exemple est l'auto-complétion dans la fenêtre de recherche de Google. Quand on tape quelques lettres, un mot est suggéré. Cette application s'appuie sur des chaines de markov, qui ont été étudiées dès le XIXème siècle, et consiste à calculer quelle est la probabilité qu'une lettre suit une autre (ou une paire, ou un triplet etc...). La difficulté mathématique n'est pas très grande - il s'agit simplement d'établir des tableaux croisés! Mais en l’occurrence, il faut, pour le faire, bénéficier d'un corpus très riche, ce dont Google dispose en collectant les mots-clés de nos recherches. Dans ce cas, la force brute de la masse de données rend possible ce qui ne l'était pas il y a peu d'années.  Donc, quand on parle innovation, il vaut mieux se limiter à l'industrialisation d'applications. De ce point de vue, elles sont très nombreuses, et vont l'être encore plus.


Un premier domaine est celui de la traduction automatique dont les performances ont stagné pendant longtemps, et dont les techniques de machine learning laissent espérer des améliorations substantielles, même si la qualité de la traduction reste encore disons rustique. Dans ce domaine du traitement des langages naturels, il y a bien sûr les agents conversationnels dont on espère qu'il vont progresser fortement et faciliter les interactions des humains avec les machines (pensons à Siri). C'est un domaine capital pour Google et consort, dans la mesure où les ordinateurs vont prendre de moins en moins la forme d'un écran, d'une unité centrale et d'un clavier, pour s'incorporer dans nos objets quotidiens : un réfrigérateur, une montre, une voiture, un thermostat. L'interaction vocale est plus commode que de pianoter sur une tablette ou un téléphone mobile!  

Un second domaine est celui de l'image. On en comprend l'enjeu avec la voiture autonome : elle doit être capable de distinguer une ligne continue d'une ligne discontinue pour prendre la décision de doubler, et a minima de distinguer la route du trottoir! Mais on peut avoir des applications totalement différentes : par exemple, le sous-titrage automatique d'une vidéo nécessite de pouvoir reconnaitre les actions menées et les objets manipulés ( les personnages). Aujourd'hui, on se limite par exemple à pouvoir taguer automatiquement les photos comme le fait Flickr, où à reconnaitre des personnes dans les photos comme le fait Facebook. Ce type d'application ouvre à une "shazamification" du monde : prendre en photo (enfin même pas) un objet pour en connaitre le nom mais aussi le producteur et les magasins qui le vendent, sans avoir besoin d'une étiquette, même en QRcode, ou mieux de développer des applications qui permettent à des généralistes de faire un diagnostic à partir d'une simple photo, ou à un agriculteur d'estimer la production d'une parcelle à partir d'un cliché pris par un drône !

Quelles petites révolutions pouvons-nous attendre de ce centre de recherche ?

Ni petites, ni grandes révolutions, mais la poursuite d'un travail opiniâtre et l'industrialisation de très nombreuses applications, grand public et industrielles, qui permettent de remplacer les humains dans des tâches cognitives élémentaires et d'augmenter la productivité : catégoriser un objet, classer des documents, produire des textes simples, interprêter une image. Il faut noter qu'il y a quelques mois, Google a laissé son outil de machine learning (TensorFlow) dans le domaine public. L'objectif ne me semble pas de créer une révolution technologique - elle est déjà là - mais plutôt d'inciter les ingénieurs du monde entier à adopter ses méthodes et ses ressources de calcul. 

Maintenant, pourquoi Zurich ? Et bien, je n'ai aucune information privilégiée à ce sujet. Simplement, notons que Zurich, depuis 2008, est le hub d’ingénierie de Google pour la zone EMEA ( Europe Moyen-Orient et Afrique). On peut s'attendre à un redoublement de l'effort de coopération avec les multinationales de la région (n'oublions pas que l'automobile allemande est proche autant que les concepteurs de machines outils, sans oublier la pharmacie) surtout dans la perspective de l'Internet des objets, qui va fournir le tsunami de données dont le machine learning se nourrit, et surtout les millions d'applications qui vont devoir être développées pour que ces objets connectés fonctionnent.

Propos recueillis par Clémence Houdiakova 

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !