Quelle vitesse pour l’innovation technologique future ? Voilà ce que permet de prédire l’analyse extensive des progrès enregistrés dans le passé <!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
High-tech
Siège de l'United States Patent and Trademark Office, Alexandria, Virginie, États-Unis
Siège de l'United States Patent and Trademark Office, Alexandria, Virginie, États-Unis
©

Si demain se passe comme hier

Une étude publiée sur Research Policy a passé au crible 97,2% des brevets américains déposés entre 1976 et 2015, qui regroupent 1757 domaines technologiques, dans le but de prédire les innovations technologiques futures

Laurent Alexandre

Laurent Alexandre

Chirurgien de formation, également diplômé de Science Po, d'Hec et de l'Ena, Laurent Alexandre a fondé dans les années 1990 le site d’information Doctissimo. Il le revend en 2008 et développe DNA Vision, entreprise spécialisée dans le séquençage ADN. Auteur de La mort de la mort paru en 2011, Laurent Alexandre est un expert des bouleversements que va connaître l'humanité grâce aux progrès de la biotechnologie. 

Vous pouvez suivre Laurent Alexandre sur son compe Twitter : @dr_l_alexandre

 
Voir la bio »

Giorgio Triulzi

Giorgio Triulzi est professeur adjoint à l'école de gestion de Université des Andes (Universidad de los Andes, Bogotá, Colombie). Il est titulaire d'un doctorat en économie et études politiques du changement technologique de l'UNU-MERIT et de l'université de Maastricht (Pays-Bas).

Voir la bio »

Vous avez utilisé les données des brevets pour analyser et prédire diverses améliorations technologiques au fil des ans. Comment avez-vous procédé ?

Giorgio Triulzi, Anuraag Singh, Chris Magee: Nos prévisions sont basées sur un certain nombre de données. 

Premièrement, nous utilisons des estimations fiables, collectées manuellement, du taux annuel d'amélioration des performances pour différentes technologies, en utilisant des mesures spécifiques telles que la quantité d'énergie stockée par kilogramme par les meilleures batteries chaque année ou la quantité d'énergie stockée par dollar dépensé pour le meilleur solaire photovoltaïque disponible chaque année. 

Deuxièmement, nous identifions des ensembles de brevets qui représentent 1757 technologies cohérentes dans l'ensemble de la base de données de l'office américain des brevets, décrivant ainsi 97,2% des brevets américains de 1976 à 2015. 

Troisièmement, nous calculons la centralité des brevets appartenant à chacune des 1757 technologies identifiées dans le réseau global de citations de brevets américains en utilisant un algorithme que nous avons précédemment mis en œuvre dans le groupe de recherche à cette fin. Quatrièmement, nous entrons la valeur de la centralité moyenne des brevets pour chacune de ces technologies dans une méthode de prédiction qui a été préalablement entraînée avec des données de performance réelles pour un groupe de technologies. La méthode renvoie ensuite une prédiction de la vitesse d'amélioration d'une technologie. Grâce à ces données et aux études précédentes sur lesquelles elle s'appuie, notre étude actuelle fournit pour la première fois des prédictions du taux d'amélioration par an pour presque toutes les technologies définissables.

À Lire Aussi

Voilà pourquoi une levée des brevets sur les vaccins anti Covid n’est PAS la solution au défi de la production de doses pour la planète entière

Pour bien comprendre la méthode, il peut être utile de décrire ce que nous entendons par centralité des brevets. La centralité doit être comprise comme une mesure de l'influence d'un brevet sur une trajectoire particulière d'améliorations technologiques. Elle peut également être considérée comme une mesure de la quantité d'informations qui passent par un brevet dans un réseau de citations entre brevets, tout comme certains aéroports, comme Charles de Gaulle, sont des plaques tournantes plus importantes dans le réseau de vols internationaux. L'idée d'utiliser la centralité pour identifier les nœuds importants d'un réseau n'est pas nouvelle et est utilisée dans de nombreuses applications. Par exemple, Google l'utilise pour classer les pages web dans les résultats de recherche. Dans des travaux antérieurs du groupe, nous avons testé plusieurs variables basées sur les brevets comme prédicteurs des taux d'amélioration des technologies. Pour ce faire, nous avons testé l'exactitude et la fiabilité de la prédiction en utilisant différentes portions de données, réparties dans le temps et entre les domaines technologiques. Nous avons constaté qu'une mesure de la centralité des brevets était le meilleur prédicteur du taux d'amélioration annuel des performances d'une technologie. Par conséquent, la centralité peut être utilisée pour prédire ce taux pour les technologies pour lesquelles des données empiriques sur les performances ne sont pas disponibles (la plupart du temps, elles ne le sont pas) mais pour lesquelles un ensemble cohérent de brevets peut être identifié avec notre méthode. Nous pensons que la centralité des brevets s'est avérée être un très bon prédicteur parce qu'elle reflète l'idée que les technologies s'améliorent puisqu'elles peuvent s'appuyer sur des avancées trouvées ailleurs (et que leurs propres avancées permettent à d'autres technologies de s'améliorer). Ceci, en plus des propriétés intrinsèques d'une technologie, comme sa loi d'échelle, sont deux facteurs clés de la vitesse du progrès technologique. En raison de leur conception et de leurs caractéristiques intrinsèques, certaines technologies sont mieux adaptées que d'autres pour tirer parti de ces améliorations. Cela peut aider à comprendre pourquoi elles s'améliorent plus rapidement.

Quelles ont été, selon vous, les évolutions technologiques les plus importantes au cours de votre période d'étude ? Y a-t-il des domaines à privilégier ?

Notre étude utilise des données sur les brevets à partir de 1975. Bien qu'il y ait littéralement des centaines de milliers de développements technologiques importants depuis cette date, et qu'il soit impossible d'en donner un résumé raisonnablement court, il est raisonnable d'affirmer que l'émergence de milliers d'améliorations technologiques basées sur les logiciels est le domaine de développement le plus important de cette période. Dans cette étude, nous avons constaté que les domaines qui s'améliorent le plus rapidement sont principalement liés aux logiciels. Par exemple, les logiciels d'échange d'informations, la gestion des réseaux et des données, les logiciels liés à la cybersécurité et les logiciels de diffusion de contenu figurent parmi les technologies qui progressent le plus rapidement.

En comparant les progrès passés, pouvons-nous voir et estimer la vitesse de l'innovation technologique future ?

L'un des faits empiriques les plus fiables concernant l'évolution technologique est la relation exponentielle entre l'efficacité technologique et le temps. L'exemple le plus célèbre est ce qui est devenu largement connu sous le nom de loi de Moore, à savoir la régularité empirique constatée par Gordon Moore (cofondateur d'Intel) dans l'industrie des semi-conducteurs dans les années 1960, selon laquelle le nombre de transistors dans une puce double à peu près tous les deux ans (ce qui correspond à un taux d'amélioration d'environ 36 % par an). Ce que plusieurs études de notre groupe et d'autres collègues ont révélé, c'est que ces régularités s'étendent bien au-delà de l'industrie des semi-conducteurs. En fait, presque toutes les technologies pour lesquelles il est possible de recueillir des données fiables sur les performances dans le temps présentent ce comportement exponentiel, bien qu'à des rythmes très différents, certains étant très lents, d'autres très rapides. De même, d'autres collègues ont constaté que la réduction des coûts présente également un comportement exponentiel similaire pour plusieurs technologies. Étant donné qu'une exponentielle est simplement le résultat d'un changement constant par an (comme les intérêts bancaires) et que ce changement par an ne change généralement pas avec le temps, il est pratique de prédire l'efficacité future et son taux de changement ou sa vitesse. Cette idée s'est avérée valable même lorsque l'on fait ce que l'on appelle du "hindcasting", c'est-à-dire que l'on prétend remonter dans le temps et utiliser les données passées uniquement pour former des modèles qui prévoient ce qui s'est passé au cours des années suivantes. À la suite de nos travaux et de ceux de nos collègues dans ce domaine, nous pouvons affirmer que les tendances générales liées à la vitesse des améliorations technologiques sont plus prévisibles que ce que l'on aurait pu penser sans connaître en profondeur les données et ces nouvelles méthodes. Nous pouvons également avoir une idée, basée sur des données et non sur des suppositions, de la probabilité qu'une technologie dépasse d'autres technologies et du moment où cela se produira, ce qui constitue une prédiction à un niveau supérieur. 

Quelles sont les tendances qui se dégagent pour l'avenir ? Notre innovation a-t-elle tendance à se concentrer sur un seul secteur à l'heure actuelle ?

Nos travaux soulignent l'importance d'une description détaillée des technologies. Par exemple, notre article récent présentait des résultats pour 1757 technologies et l'innovation est encore plus large que cela. Il serait incorrect de dire qu'elle se concentre sur un seul secteur et presque insignifiant (mais pas incorrect) de dire que les plus grands domaines d'activité à ce stade sont la biologie/santé et les logiciels. Le modèle sous-jacent de prédiction des taux d'amélioration souligne le fait que les améliorations technologiques dans un domaine sont souvent le résultat de percées réalisées bien en dehors du champ d'étude focal et peuvent elles-mêmes avoir un impact positif sur plusieurs autres domaines. Par exemple, de nombreux progrès récents dans le domaine de la fusion nucléaire ont été réalisés grâce à l'amélioration des aimants ainsi que de la modélisation et de la simulation. Ces améliorations sont elles-mêmes le résultat de progrès dans les supraconducteurs à haute température et dans les logiciels et l’informatique. L'un des grands axes de notre étude n'était pas de désigner quelques domaines spécifiques comme étant la réponse, mais de donner des estimations plus fiables de l'ampleur des améliorations que nous sommes susceptibles d'obtenir à partir d'un grand nombre de technologies. Cela devrait aider les investisseurs, les décideurs politiques et les organisations à décider où concentrer leur temps et leur argent, ainsi qu'à définir des attentes réalistes en matière de délais de développement technologique. Cela aura des conséquences énormes sur le rôle que la technologie pourrait jouer dans les défis sociaux mondiaux tels que le changement climatique, entre autres.

Laurent Alexandre, quel regard portez vous sur cette étude ?

Laurent Alexandre: Les auteurs ont une préoccupation qui est d’abord sociale. Ils observent que l’accélération technologique entraîne des frustrations et des craintes, notamment sur les questions d’emploi et pensent que pour prévenir ces tendances, il faut prévoir l’impact de la technologie et l’endroit où il va être le plus important. Partant de cela, ils cherchent des indicateurs dans des bases de brevet pour voir s’il y a des équations économétriques qui permettent de déterminer dans quel secteur cela va le plus bouger afin de mener des politiques préventives contre le déplacement de l’emploi. Cela a pour objectif de faire que la vague schumpétérienne ait un minimum d’impact social. Ils analysent 97 % de la base de brevet avec un niveau de granularité assez fin, sur un peu moins de 2000 secteurs technologiques. Ainsi, ils arrivent à avoir une prédiction des secteurs qui vont le plus bouger à partir des dynamiques de brevets. Ils observent que le nombre de brevets dans un secteur n’est pas un prédictif des changements, mais que ce qui compte, c’est la dynamique. Cela permet d’établir des corrélations. Elles ne sont pas absolues mais demeurent intéressantes. C’est un outil que l’on pourrait utiliser dans les années qui viennent pour réorienter et former les travailleurs menacés par une vague technologique. Dans ce travail préliminaire, leur corrélation est loin d’être mauvaise et relativement convaincante, ce qui me laisse penser que ces calculs vont se développer. Ce type de travaux exige que les bases de brevets soient publiques, numérisées, accessibles gratuitement et qu’internet soit accessible pour un coût modique. Ces conditions n’étaient pas réunies auparavant. 

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !