Intelligence artificielle : la pénurie de cerveaux fait s’envoler les salaires... et s’effondrer les envies de souverainetés nationales<!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
International
Intelligence artificielle : la pénurie de cerveaux  fait s’envoler les salaires... et s’effondrer les envies de souverainetés nationales
©Flickr/IsaacMao

Des chercheurs qui trouvent, on en cherche

Selon le New York Times, seules 22 000 personnes dans le monde seraient compétentes pour mener des recherches sérieuses sur l'intelligence artificielle.

Bernard Benhamou

Bernard Benhamou

Bernard Benhamou est secrétaire général de l’Institut de la Souveraineté Numérique (ISN). Il est aussi enseignant sur la gouvernance de l’Internet à l’Université Paris I-Panthéon Sorbonne. Il a exercé les fonctions de délégué interministériel aux usages de l’Internet auprès du ministère de la Recherche et du ministère de l’Économie numérique (2007-2013). Il y a fondé le portail Proxima Mobile, premier portail européen de services mobiles pour les citoyens. Il a coordonné la première conférence ministérielle européenne sur l’Internet des objets lors de la Présidence Française de l’Union européenne de 2008. Il a été le conseiller de la Délégation Française au Sommet des Nations unies sur la Société de l’Information (2003-2006). Il a aussi créé les premières conférences sur l’impact des technologies sur les administrations à l’Ena en 1998. Enfin, il a été le concepteur de « Passeport pour le Cybermonde », la première exposition entièrement en réseau créée à la Cité des Sciences et de l’Industrie en 1997.

Voir la bio »

Atlantico : En s'appuyant sur les données fournies par un laboratoire indépendant canadien, le New York Times indique que seules 22 000 personnes dans le monde seraient compétentes pour mener des recherches sérieuses sur l'intelligence artificielle. Constatez-vous également cette pénurie de chercheurs dans le domaine ? Le secteur de l'IA est relativement récent, mais y a-t-il d'autres raisons à cette rareté de chercheurs ?

Bernard Benhamou : Qu'il y ait peu de gens véritablement pointus sur la question est une chose. Qu'il y ait peu de gens qui, potentiellement, pourraient rejoindre ce secteur parce qu'ils en ont la formation et qu'ils pourraient s'adapter à des équipes de recherche dans ce domaine, en est une autre. C'était un peu l'objet du rapport Villani, qui souhaite développer une filière autonome dans ce domaine en France et en Europe. C'est effectivement l’une des questions qui se posent et il nous faut développer un effort par rapport à cela. Mais je dirais que, plus important encore que le nombre actuel de chercheurs dans ce domaine, l'important c'est de savoir si nous articulons une véritable politique industrielle sur ces questions. Or, pour l'instant, c'est très loin d'être le cas. Parce que, pour l'essentiel, les chercheurs intéressés par ces questions en Europe trouvent à se faire embaucher par des entreprises non-européennes, y compris à Paris pour Facebook. Et c'est là la vraie question : sommes-nous capables de renverser ce mouvement pour faire en sorte que des gens puissent développer un écosystème en France dans ce domaine ? Or nous en sommes très loin.

À chaque fois qu'il est question d'avancées technologiques, les gens qui s'y intéressent sont en petit nombre, au départ. Le secteur de l'intelligence artificielle pose question parce qu'il s'agit ici de technologies qui correspondent à des évolutions des technologies existantes plus que de révolutions. Le terme d’intelligence artificielle est d'ailleurs devenu un outil marketing : le but est de trouver et de faire évoluer des technologies autour des nouveaux besoins et des nouvelles capacités qu'auront les ordinateurs et les systèmes connectés dans les temps à venir. Le terme "intelligence artificielle" est une expression fourre-tout que les spécialistes n'aiment pas, parce qu'elle induit une image presque de science-fiction, très éloignée de la réalité industrielle aujourd'hui. Et on a tendance à penser que tous les systèmes d'intelligence artificielle sont des systèmes futuristes. En réalité, non : il y a beaucoup de systèmes qui portent le nom d'intelligence artificielle aujourd'hui et qui s’inscrivent dans la continuité de ce qu'on a pu connaître, mais les ordinateurs sont plus puissants, ils receuillent et analysent plus de données et les systèmes se perfectionnent. On les utilise pour la voiture connectée – et bientôt la voiture sans pilote -, la régulation des systèmes embarqués dans la plupart des appareils militaires, la ville intelligente et les systèmes de régulation environnementale, etc. Ce terme d’intelligence artificielle est gênant parce qu'on a tendance à le surinvestir.

Il est clair que nous avons aujourd'hui des secteurs en émergence autour de l'intelligence artificielle et que nous, Européens, sommes régulièrement pointés du doigt comme étant très en retard d'un point de vue industriel, alors même que nous avons parmi les tout meilleurs chercheurs ou développeurs au monde dans ces domaines. 
La vraie question n'est donc pas de savoir s'il y a une pénurie, mais quelle est la politique industrielle que l'on souhaite développer dans ce domaine. C'était donc l'objet des débats qui ont eu lieu autour du rapport Villani. Et pour l'instant, l'Europe est en situation de subir des actions technologiques plutôt que d'en être le leader. C'est le vrai problème, tant économique que politique, pour les temps qui viennent.

Le New York Times précise également que cette rareté pousse les entreprises et les associations à grassement payer les chercheurs en intelligence artificielle. Quelles peuvent être les conséquences pour le secteur public ?

C'est une réalité ancienne pour les acteurs publics : retenir et capitaliser un savoir-faire technologique, est extrêmement difficile pour des raisons organisationnelles et salariales. Les spécialistes des technologies sont des gens que l'on paye très bien dans le privé et qui, lorsqu'ils s'expatrient, sont encore mieux payés. Et donc, on doit éviter que des entreprises privées obtiennent des marchés stratégiques et reprennent à leur compte des missions qui auraient dû être menées par les acteurs publics. C'est une vraie question, car les entreprises en question – qu'il s'agisse des GAFA ou d’autres -, n'ont absolument pas les mêmes règles éthiques, les mêmes soucis de l'intérêt général que les acteurs publics. On est à un moment charnière en ce qui concerne le développement des nouvelles technologies, de l'intelligence artificielle, des objets connectés, de la ville intelligente, du réseau électrique intelligent, etc. Si l'on n'y prend garde, il y a un risque de démembrement de l'État. Avec, là encore, des risques de dérives politiques comme on a pu le voir avec Facebook autour de l'affaire Cambridge Analytica. C'est ce sujet qui constituera le pivot : à partir de quel moment les acteurs publics et in fine les citoyens, pourront avoir le contrôle sur les algorithmes de l'intelligence artificielle dans les temps à venir ? Un livre très intéressant intitulé The Black Box Society a été écrit à ce sujet par Frank Pasquale : il y rappelle que la transparence par rapport aux algorithmes que ces entreprises développent, deviendra une nécessité absolue. En effet, on ne peut pas supporter qu’une société tout entière devienne une "boîte noire" pour ses citoyens. En particulier lorsque ces algorithmes gèrent des pans entiers de nos vies politiques, sociales ou économiques. À un moment donné, il y aura forcément une confrontation entre ces deux formes de légitimités politiques et technologiques. Cette confrontation est déjà présente autour des campagnes électorales, avec les fake news. Mais ça n'est que le début. À terme, il faudra que l'essentiel des systèmes qui gèrent nos vies – et reposeront de plus en plus sur des technologies d'intelligence artificielle, soient sous le contrôle du citoyen. L’autorégulation (ou la « co-régulation ») par les acteurs technologiques ayant clairement montré ses limites dans ce domaine. Dans un sondage récent auprès de ses lecteurs, le très libéral magazine The Economist constatait que plus de 75% d’entre eux étaient favorable à une régulation plus stricte des GAFA…

Peut-on craindre qu'à l'avenir, le domaine de l'IA soit exclusivement privé et que les États aient systématiquement à faire appel à des entreprises privées pour des domaines stratégiques (militaires, spatial, etc.) ?

Ce problème se pose déjà. L'État doit-il garder une certaine forme de souveraineté sur les choix et réalisations technologiques qu'il aura à mener dans les temps à venir ? C'est évident. En a-t-il les moyens aujourd'hui ? Certainement pas. Il faudra, je pense, une intervention conjointe, à la fois de spécialistes technologiques au sein de l’État et de juristes pour développer de nouvelles formes d’encadrement. Les États ont fait preuve d'une infinie naïveté en pensant que ces entreprises, comme le disait – ironiquement – le slogan de Google, "Don't be evil", ne pouvaient pas faire de mal. Le problème, c'est que ces entreprises, qu'il s'agisse de Google ou de Facebook, ont du fait de leurs modèles économiques, des comportements qui sont parfois à l'opposé des intérêts du citoyen. Ce futur inquiétant où l’on imaginait des entreprises omniscientes, omnipotentes et capables de faire "dévier" le cours des démocraties, c'est maintenant, pas demain. On ne peut que regretter qu'il n'y ait pas eu une meilleure prise en compte de ces questions d'un point de vue politique. Plus encore que la régulation des technologies actuelles avec des réseaux sociaux et des moteurs de recherche utilisés sur des ordinateurs et des smartphones, ce sont les prochaines générations de technologies qui vont représenter des enjeux cruciaux pour les démocraties. Lorsque des milliards de nouveaux objets connectés qui ne seront ni des ordinateurs ni des smartphones, mais des objets de santé, de protection environnementale, de régulation énergétique seront présents dans notre environnement, leur régulation sera encore plus cruciale. Et c'est vrai que la prise en compte de ce nouveau paysage politique et industriel est encore trop lente, au niveau européen.

Comment le secteur public peut-il rivaliser avec le privé ? Certains États ont-ils déjà pris en main politiquement ce problème de main-d’œuvre dans le domaine de l'IA ? Comment ?

Le secteur public n'a pas vocation à rivaliser avec le privé mais il a des missions et une légitimité différente. Donc, par définition, le but du secteur public est de réguler. L'objectif est donc de développer ses propres activités, avec une certaine transparence, par exemple avec l'algorithme de Parcoursup, où il a été nécessaire d'instaurer une forme de transparence supplémentaire parce que les citoyens ne pouvaient pas être confrontés à une boîte noire lorsqu'il était question du devenir social des jeunes adultes. Donc, par définition, il y a la nécessité de réguler pour que ces sociétés ne deviennent pas des substituts à l'État. D'ailleurs, dans le livre "The New Digital Age", de Jared Cohen et Eric Schmidt (patron du CA de Google), ces derniers disaient clairement : "Nos sociétés ont vocation à remplacer les États". Lorsque ce livre a été écrit, il y a 5 ans, cela pouvait prêter à sourire, aujourd'hui, personne ne sourit… En effet, la puissance économique, informationnelle et le lobbying de ces sociétés sont tels que lorsque Google ou Facebook se disent prêts à remplacer tel ou tel secteur d’activité des État, ils en ont les moyens. Pour être militant, et non observateur, sur ces questions de souveraineté j'estime que les États ne doivent donc pas comme on le voit trop souvent être passifs et déléguer progressivement à ces entreprises des pans entiers de leur souveraineté. Les acteurs publics commencent à se rendre compte que ces sociétés ont des intérêts parfois aux antipodes de nos principes et valeurs démocratiques. Les citoyens ont pour leur part encore du mal à percevoir que les intérêts de ces entreprises sont dictés par des considérations qui ne sont en rien éthiques. Et on le voit bien avec le règlement européen sur les données personnelles, que beaucoup de ces sociétés ne veulent absolument pas mettre en œuvre au-delà des frontières de l’Union européenne.

Le paysage de l’Intelligence artificielle est en effet marqué par des considérations politiques. Ainsi, aujourd’hui, la plus valorisée de toutes les start-ups mondiales dans le domaine de l'intelligence artificielle est chinoise et sont expertise est liée à la reconnaissance faciale. Elle est sous contrat avec le gouvernement chinois pour le suivi des citoyens. Dans un registre voisin, en Chine, a été mis en place un vaste réseau de notation des citoyens que l’on appelle le Crédit Social : chaque individu chinois reçoit une notre sur trois chiffres – dans ce réseau social global – qui est déterminée par les actions positives ou négatives envers les autorités chinoises. Et cette note, si elle est trop basse, empêche les personnes d'avoir accès à toutes sortes d'avantages économiques et sociaux voire même les empêche de se déplacer en avion… Dans un domaine différent, c’est Palantir la société d’analyse « big data » de Peter Thiel (le conseiller technologique du président Trump) qui était chargée de vérifier si l’Iran se conformait aux termes de l’accord sur le nucléaire et c’est la même société qui avait collaboré avec Cambridge Analytica pour influencer la campagne présidentielle américaine…

Poutine l'a d'ailleurs dit clairement : qui sera maître de l'intelligence artificielle sera maître du monde. C'est une rhétorique très poutinienne mais elle est basée sur une réalité : c'est de ces entreprises que proviendront les instruments de souveraineté et de pouvoir qui détermineront les rapports de forces entre les États dans les années à venir… Pour la Chine comme pour la Russie ces instruments seront d’abord liés au contrôle politique des populations. Voulons-nous cela pour l’Europe ? Non. Avons-nous les pris les mesures nous permettant de nous opposer à ces évolutions ? Pour l'instant, clairement pas.

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !