Ce rapport officiel américain qui recommande de prendre d’urgence les mesures nécessaires pour contrer le risque d’extinction de l’espèce humaine que porte l'IA<!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
International
Un homme se tient à côté d'un logo AI (intelligence artificielle) lors du Mobile World Congress (MWC), le plus grand rassemblement annuel de l'industrie des télécommunications, à Barcelone, le 27 février 2024.
Un homme se tient à côté d'un logo AI (intelligence artificielle) lors du Mobile World Congress (MWC), le plus grand rassemblement annuel de l'industrie des télécommunications, à Barcelone, le 27 février 2024.
©PAU BARRENA / AFP

Dangers

Le Time a révélé un rapport commandé par le gouvernement américain sur les dangers de l'intelligence artificielle.

Fabrice Epelboin

Fabrice Epelboin

Fabrice Epelboin est enseignant à Sciences Po et cofondateur de Yogosha, une startup à la croisée de la sécurité informatique et de l'économie collaborative.

Voir la bio »
Alexander Polonsky

Alexander Polonsky

Alexander Polonsky est Directeur de recherche, co-fondateur Bloom

Voir la bio »
Atlantico : Le Time a révélé un rapport commandé par le gouvernement américain sur les dangers de l'intelligence artificielle. Ce dernier est très alarmiste et enjoint le gouvernement à prendre des mesures de "manière décisive" pour éviter une menace "d’extinction" provenant de l’IA. Est-ce que ce rapport est crédible ?
Fabrice Epelboin : Je me réfère à l'avis de ceux qui travaillent dans l'IA et qui sont plus près du problème et qui sont régulièrement sondés. Et les avis varient d'une année à l'autre. Typiquement, la perspective cataclysmique qui est décrite dans ce rapport, il y a encore quelques années, elle arrivait à convaincre 10 % de la communauté des experts. Aujourd'hui, elle monte, elle monte de plus en plus. Donc, on peut dire que, au sein des gens qui sont capables d'avoir un avis raisonné, l'inquiétude grandit, c'est certain.
Alexander Polonsky : Évidemment ! Ce sont des gens qui sont compétents, qui l'ont écrit. Ils ont parlé auprès des experts. C'est bien fait. Après, ce genre de choses ne sont jamais à 100 % objectifs, dans le sens où ils étaient commissionnés pour évoquer les risques. Donc, ils sont allés chercher les risques. Mais disons que c'est forcément biaisé par le design, parce que leur travail, c'était de chercher les risques. S'ils n’en trouvent pas, c'est qu'ils n’ont pas accompli le travail. Ils étaient obligés de prendre la situation de manière négative. Donc ce n’est pas un point de vue neutre.

Selon vous, quels sont les points les plus importants à retenir de ce rapport ? 

Fabrice Epelboin : La distinction entre deux types d'apocalypse me semble intéressante. l'Apocalypse de l'apparition de super armes qui vont faire en sorte que la course aux armements va dérailler et l'apocalypse de l'intelligence artificielle qui prend le dessus sur l'homme pour l'exterminer ou le réduire en esclavage. Les deux raisonnent beaucoup avec des scénarios de science-fiction et c'est une imagerie qui est intéressante et qui a le mérite d'être graphique et d'inciter à la réflexion.
Alexander Polonsky : Le premier point, c'est de prise de conscience et l'alerte. Il y avait beaucoup de monde qui évoquaient les risques. Mais là, c'est probablement l'étude la plus approfondie de ce sujet jusqu'à maintenant. Une étude qui détaille de manière concrète et assez exhaustive les menaces potentielles. Ça, c'est déjà un point très important. Le deuxième, c'est le niveau de menaces évoquées : un niveau de menace comparable aux armes nucléaires. Il y a le potentiel de destruction d’une civilisation. Ce rapport donne des scénarios assez convaincants, à la fois sous l'angle de puissance de cette technologie et de notre capacité de contrôler cette technologie. Le troisième point, c'est que la menace est proche. Donc il faut agir vite, parce que globalement, les capacités augmentent avec un rythme très soutenu. À horizon de cinq ans, on peut se retrouver avec un potentiel de puissance très élevé.
Le rapport évoque des menaces d'extinction de l'espèce humaine. Quels sont réellement les risques qui sont évoqués ? 

Alexander Polonsky : Ces systèmes peuvent être très intelligents. On parle d’intelligence artificielle générale qui est censée atteindre un niveau d'intelligence équivalent à celui-là d'un humain. Équivalent, ça ne veut pas dire égal.
Ça signifie qu'il peut être plus intelligent que nous dans certains aspects et peut-être moins sûr d’autres. Quelqu'un de malveillant, quelqu’un de pas tout à fait compétent ou juste quelqu'un qui a commis une erreur, peut donner en façon directe, explicite ou implicite une intention à ces systèmes, certains objectifs, que les systèmes peuvent interpréter de manière hostile. Ils peuvent mettre tout en ordre pour nous détruire.
Et puisque c'est quelque chose qui peut être très performant, il peut se propager, il peut lutter pour augmenter ses ressources de manière automatique et exponentielle. Il peut devenir très puissant et incontrôlable, trouver des stratégies vraiment destructrices.
Le but de ce rapport commandé par le gouvernement américain est de prévenir ces risques. Par conséquent, quelles mesures préconise-t-il de prendre pour endiguer ces menaces ? 

Fabrice Epelboin : Les mesures pour essayer de contrôler sont un peu dérisoires dans la mesure où ça consiste à restreindre l'accès à l'information pour les IA. La génération actuelle d'IA, celle du GPT, nous a bien montré que toutes les intelligences artificielles avaient pillé la propriété intellectuelle aux quatre coins de la planète et qu'il était inimaginable de pouvoir imaginer que ça ne se reproduise pas. Et puis l'autre possibilité, c'est de restreindre l'accès à la puissance de calcul, c’est-à-dire aux processeurs. Et là, ça pose un problème géopolitique amusant dans la mesure où il y a une course entre la Chine et les États-Unis et au milieu, la Mecque de la fabrication du processeur qu'est Taïwan, qui est vraiment là où tout se passe et qui cristallise à la fois un conflit géopolitique naissant et de plus en plus menaçant, et une potentielle disruption de l'approvisionnement mondial en puce électronique qui résoudrait quelque part le problème.

Hélas, c'est beaucoup plus complexe qu’une compétition internationale. Il y a aujourd'hui des entreprises et à travers ces entreprises, des individus.Si on imagine le scénario de la super arme qui tout d'un coup permettrait à un individu d'avoir une telle puissance qu'il pourrait assujettir le monde - il aurait bien tort de ne pas le faire parce qu'il sait qu'un autre va finir par arriver à la même innovation - et bien il y a de bonnes chances que cet individu ne soit pas un état. Ce qui là encore résonne avec tout un tas de science-fiction. C'est un scénario fantastique, mais c'est un scénario qui risque de se poser dans les années qui viennent.

Alexander Polonsky : Il y a des hypothèses évoquées, certaines recommandations qui sont faites et qui sont plus ou moins réalistes, qui ont plus ou moins de sens.

Même les auteurs admettent que beaucoup de ces recommandations, vont avoir du mal à être suivies. Comme pour les armes nucléaires, la première des choses, c’est la nécessité de traités internationaux. Ça ne sert à rien que les Américains ou même l'Europe se contraignent si la Chine, la Russie ou quelqu'un d'autre peuvent aller plus loin. En plus, ce sont des technologies qui évoluent rapidement et qui sont un peu démocratisées. Pour les utiliser, il n'y a pas forcément besoin d'avoir des ressources d'un l'État. Vous et moi, on ne peut pas construire une arme nucléaire aujourd'hui tout seul, mais on peut tout à fait construire une intelligence artificielle. Le problème, c'est qu’il y a une question sur la simple capacité théorique de contrôler cette technologie.
Il existe quand même des recommandations : limiter leur partage, crée un secret-défense de l'intelligence artificielle pour interdire leur partage et leur divulgation. On peut aussi limiter la puissance des calculs disponibles pour pouvoir entraîner et développer ces technologies. Le problème, c’est que l’intelligence artificielle à de moins en moins besoin de puissance de calcul. 
Malgré un travail approfondi, le rapport reste théorique pour l'instant. On verra bien comment les choses évoluent dans les années qui suivent et s'il y a bien des dérapages de l'IA qui sont réellement dangereuses.

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !