50 ans de monde selon Moore, cette loi méconnue qui a pourtant révolutionné le champ des possibles humains | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
High-tech
Des transistors de Général Electrique.
Des transistors de Général Electrique.
©wikipédia

Anniversaire

50 ans de monde selon Moore, cette loi méconnue qui a pourtant révolutionné le champ des possibles humains

Édictée par l'un des pères de l'informatique moderne et cofondateur d'Intel, la loi de Moore fête ses cinquante ans. Son principe : la puissance des microprocesseurs double chaque année à coût constant. Un fondement qui, pour le moment, n'a jamais montré ses limites.

Jean-Gabriel Ganascia

Jean-Gabriel Ganascia

Jean-Gabriel Ganascia est professeur à l'université Pierre et Marie Curie (Paris VI) où il enseigne principalement l'informatique, l'intelligence artificielle et les sciences cognitives. Il poursuit des recherches au sein du LIP6, dans le thème APA du pôle IA où il anime l'équipe ACASA .
 

Voir la bio »

Atlantico : Au mois d'avril 1965, Gordon Earl Moore, un des fondateurs d'Intel, énonça une loi indiquant que la densité des transistors et donc la capacité de mémoire, doublerait chaque année. En 1975, il ramena sa prédiction à deux ans, du fait de l'arrivée des microprocesseurs en silicium. Comment a-t-il pu en arriver à cette conclusion ?

Jean-Gabriel Ganascia : Rappelons que cette loi émise en 1965 par Gordon Earl Moore partait du constat selon lequel le nombre de composants des microprocesseurs doublait tous les dix-huit mois depuis 1959. Il extrapola alors cette observation pour en faire une loi générale. Avec le temps, on continua d’observer une poursuite de la croissance exponentielle de la capacité des machines. Toutefois, celle-ci ne portait plus sur le nombre de composants, mais sur la croissance des performances des micro-processeurs, en particulier, de leurs capacités de stockage d’information et de leur vitesse de calcul qui doublaient à peu près tous les deux ans. Parallèlement le coût diminuait dans les mêmes proportions. Cela amena Gordon Moore à reformuler légèrement sa loi au milieu des années soixante-dix. Mais, le principe demeure le même. Notons toutefois que si Gordon Moore est crédité, à juste titre, de la formulation de cette loi, d’autres, avant lui, en eurent eux aussi l’intuition. C’est en particulier le cas de John Von Neumann qui, dès les années cinquante, émit l’idée que les performances de la technologie croîtraient, d’une façon ou d’une autre, de façon exponentielle. Cela alimenta l’imagination d’un certain nombre de scientifiques et d’auteurs de sciences fiction. Ce fût le cas du mathématicien polonais Stanislaw Ulam qui a suggéré, dans les années qui suivirent, l’idée qu’une singularité mathématique, à savoir une discontinuité, pourrait advenir en raison de l’accélération ultra-rapide des progrès de la technologie. Il en va de même pour des auteurs de science fiction dans les années soixante-dix comme Vernor Vinge.

Cette prédiction, devenue loi de Moore, s'est-elle vérifiée avec le temps ? Quelle progression dans la capacité de mémoire a-t-on pu observer en 50 ans ? Comment les innovations ont-elles pu y répondre ?

Depuis cinquante ans, cette prédiction de Gordon Moore s’est toujours vérifiée. Ainsi, tant les mémoires vives (RAM) que les disques accrurent considérablement leurs capacités de stockage tandis que leur coût baissait dans les mêmes proportions. De même, les vitesses de calcul doublèrent d’abord tous les deux ans jusqu’en 1980, puis tous les 1,3 ans depuis. A titre d’illustration, songeons qu’en 1970, le processeur 4004 d’Intel contenait environ 2300 transistors, en 1978, soit moins de dix ans plus tard, le 8086 d’Intel contenait 28000 transistors, c’est à dire plus de dix fois plus. Vingt ans plus tard, en 1999, le pentium III contient plusieurs dizaines de millions de processeurs. Enfin, en 2007, avec le pentium dual core d’Intel, on atteint plus d’un milliard de transistors...

En quoi cette loi de Moore réalisée a-t-elle pu accompagner la révolution industrielle, l'innovation informatique ?

Cette anticipation de la croissance des performances des machines ne relève pas uniquement de la science-fiction, loin s’en faut. Elle ne sert pas uniquement à une projection sur le long terme ; elle aide aussi et surtout à comprendre les évolutions à court terme. Cela a permis de faire des prévisions qui furent extrêmement précieuses pour les économistes et pour les industriels. En effet, la révolution informatique s’est accompagnée d’une grande déstabilisation : des machines coûteuses se voyaient, en quelques années, voire en quelques mois, devenir dépassées. Dès lors, il était très difficile, pour les entreprises, de dimensionner leur parc informatique et de planifier leurs achats. La loi de Moore les aidait à réguler efficacement les investissements. 

A quel rapport capacité de mémorisation / coût a-t-on pu aboutir ? Est-ce que cette mémoire toujours plus confinée a un coût pour le consommateur ?

La diminution du coût des composants apparaît très impressionnante.

Ainsi, le prix du Mégaoctet s’est vu divisé par deux tous les deux ans entre 1980 et 1990, puis tous les neufs mois depuis 1996 ! Avec le nuage (ou le cloud pour reprendre un anglicisme très en vogue), nous disposons désormais de grandes quantités de stockage quasiment gratuites. Cela ouvre des horizons neufs. L’équivalent en volume d’information des 14 millions d’exemplaires contenu dans le catalogue des livres et imprimés de la Bibliothèque Nationale de France, à savoir 14 Téraoctets (1012 octets) se stocke sur quelques disques durs, à un prix assez faible.

Indubitablement, cet accroissement considérable des capacités de stockage des machines offre de grands avantages, car il met à la disposition de tous des connaissances extraordinaires, à la fois sous forme de texte, d’images, de films, de musique etc. Toutefois, dans le même temps, cela permet aussi de mémoriser un nombre vertigineux d’informations ayant trait à notre vie privée, par exemple, ce qui  touche à notre santé, à nos déplacements, à nos achats bancaires, à notre enfance, à nos requêtes sur les moteurs de recherche, etc. Or, cette dépossession de nos données personnelles nous met à la merci d’acteurs pas nécessairement bien intentionnés.

D'ailleurs, il paraît difficile que le doublement des capacités de mémorisation des transistors soit infini... Quelles sont les limites qui la contrediront probablement ? Où en est l'innovation des capacités de stockages, quelles sont celles dont nous profiteront demain ?

L’accroissement de la densité des composants que l’on peut intégrer sur une puce de silicium a certainement une limite. Cela tient aux techniques de fabrication et aux principes physiques sur lesquels reposent les processeurs. En conséquence, la loi de Moore risque un jour d’être mise en défaut. Certains prévoient qu’elle commencera à s’infléchir d’ici peu, on évoque 2017, et qu’ensuite, elle atteindra son terme au bout d’une dizaine d’années. D’autres, plus enthousiastes, pensent que cette loi constitue un absolu et que d’autres principes de calcul, ne reposant plus sur l’utilisation du silicium, et recourant aux nanotechnologies ou au calcul quantique, autoriseront à poursuivre bien au delà des limites actuelles. Pour l’instant, ce que l’on peut dire, c’est que la loi de Moore s’est prolongée au delà des espérances depuis cinquante ans, qu’il se peut qu’elle se poursuive encore longtemps, mais que nous ne disposons d’aucune certitude, et qu’elle aura certainement une fin, sans que l’on soit en mesure de dire ni quand, ni pourquoi.

Comment, enfin, expliquer que cette loi symbolise aussi bien les débuts de l'informatique? En quoi en est-elle une sorte de totem ?

Le développement rapide de l’informatique et du numérique dans tous les secteurs de la société tient, bien évidemment, à la croissance ultra-rapide des capacités des machines, de leurs performances. Il tient aussi à la modicité des prix qui font que la plupart des objets contemporains — voitures, aspirateurs, téléphones, montres, lunettes, etc. — contiennent des micro-processeurs, sans que cela renchérisse exagérément leur fabrication. Or, cette croissance hyperrapide des capacités des machines et cette diminution corrélative de leur prix correspondent à la loi de Moore. On conçoit dès lors que celle-ci symbolise admirablement l’attitude conquérante de l’informatique.

Il arrive toutefois que certains, en particulier les tenants de la Singularité technologique, aillent plus loin : ils prétendent de la loi de Moore serait l’expression dans le champ de la technologie d’une loi plus générale qui régirait l’évolution de la nature depuis ses origines. Toujours selon eux, cette loi d’évolution se poursuivra nécessairement, ce qui conduira à une domination des machines superpuissantes sur l’humanité. Espérons qu’ils auront tort !

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !