Dangers
Ce rapport officiel américain qui recommande de prendre d’urgence les mesures nécessaires pour contrer le risque d’extinction de l’espèce humaine que porte l'IA
Le Time a révélé un rapport commandé par le gouvernement américain sur les dangers de l'intelligence artificielle.
Selon vous, quels sont les points les plus importants à retenir de ce rapport ?
Fabrice Epelboin : La distinction entre deux types d'apocalypse me semble intéressante. l'Apocalypse de l'apparition de super armes qui vont faire en sorte que la course aux armements va dérailler et l'apocalypse de l'intelligence artificielle qui prend le dessus sur l'homme pour l'exterminer ou le réduire en esclavage. Les deux raisonnent beaucoup avec des scénarios de science-fiction et c'est une imagerie qui est intéressante et qui a le mérite d'être graphique et d'inciter à la réflexion.
Alexander Polonsky : Ces systèmes peuvent être très intelligents. On parle d’intelligence artificielle générale qui est censée atteindre un niveau d'intelligence équivalent à celui-là d'un humain. Équivalent, ça ne veut pas dire égal.
Ça signifie qu'il peut être plus intelligent que nous dans certains aspects et peut-être moins sûr d’autres. Quelqu'un de malveillant, quelqu’un de pas tout à fait compétent ou juste quelqu'un qui a commis une erreur, peut donner en façon directe, explicite ou implicite une intention à ces systèmes, certains objectifs, que les systèmes peuvent interpréter de manière hostile. Ils peuvent mettre tout en ordre pour nous détruire.
Et puisque c'est quelque chose qui peut être très performant, il peut se propager, il peut lutter pour augmenter ses ressources de manière automatique et exponentielle. Il peut devenir très puissant et incontrôlable, trouver des stratégies vraiment destructrices.
Fabrice Epelboin : Les mesures pour essayer de contrôler sont un peu dérisoires dans la mesure où ça consiste à restreindre l'accès à l'information pour les IA. La génération actuelle d'IA, celle du GPT, nous a bien montré que toutes les intelligences artificielles avaient pillé la propriété intellectuelle aux quatre coins de la planète et qu'il était inimaginable de pouvoir imaginer que ça ne se reproduise pas. Et puis l'autre possibilité, c'est de restreindre l'accès à la puissance de calcul, c’est-à-dire aux processeurs. Et là, ça pose un problème géopolitique amusant dans la mesure où il y a une course entre la Chine et les États-Unis et au milieu, la Mecque de la fabrication du processeur qu'est Taïwan, qui est vraiment là où tout se passe et qui cristallise à la fois un conflit géopolitique naissant et de plus en plus menaçant, et une potentielle disruption de l'approvisionnement mondial en puce électronique qui résoudrait quelque part le problème.
Hélas, c'est beaucoup plus complexe qu’une compétition internationale. Il y a aujourd'hui des entreprises et à travers ces entreprises, des individus.Si on imagine le scénario de la super arme qui tout d'un coup permettrait à un individu d'avoir une telle puissance qu'il pourrait assujettir le monde - il aurait bien tort de ne pas le faire parce qu'il sait qu'un autre va finir par arriver à la même innovation - et bien il y a de bonnes chances que cet individu ne soit pas un état. Ce qui là encore résonne avec tout un tas de science-fiction. C'est un scénario fantastique, mais c'est un scénario qui risque de se poser dans les années qui viennent.
Alexander Polonsky : Il y a des hypothèses évoquées, certaines recommandations qui sont faites et qui sont plus ou moins réalistes, qui ont plus ou moins de sens.
Même les auteurs admettent que beaucoup de ces recommandations, vont avoir du mal à être suivies. Comme pour les armes nucléaires, la première des choses, c’est la nécessité de traités internationaux. Ça ne sert à rien que les Américains ou même l'Europe se contraignent si la Chine, la Russie ou quelqu'un d'autre peuvent aller plus loin. En plus, ce sont des technologies qui évoluent rapidement et qui sont un peu démocratisées. Pour les utiliser, il n'y a pas forcément besoin d'avoir des ressources d'un l'État. Vous et moi, on ne peut pas construire une arme nucléaire aujourd'hui tout seul, mais on peut tout à fait construire une intelligence artificielle. Le problème, c'est qu’il y a une question sur la simple capacité théorique de contrôler cette technologie.Il existe quand même des recommandations : limiter leur partage, crée un secret-défense de l'intelligence artificielle pour interdire leur partage et leur divulgation. On peut aussi limiter la puissance des calculs disponibles pour pouvoir entraîner et développer ces technologies. Le problème, c’est que l’intelligence artificielle à de moins en moins besoin de puissance de calcul.
En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.
Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !