L'intelligence artificielle fait peser des menaces d'"extinction" pour l'humanité, selon certains experts<!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
High-tech
Un groupe d'experts, dont Sam Altman, ont averti des menaces d'"extinction" pour l'humanité posées par l'essor de l'intelligence artificielle.
Un groupe d'experts, dont Sam Altman, ont averti des menaces d'"extinction" pour l'humanité posées par l'essor de l'intelligence artificielle.
©LIONEL BONAVENTURE / AFP

IA

Les signataires d’une tribune, dont les responsables d'OpenAI et de Google Deepmind, souhaitent que la lutte contre les risques liés à l'IA puisse être "une priorité mondiale au même titre que d'autres risques à l'échelle de la société".

Un groupe de chefs d'entreprise et d'experts, dont Sam Altman, le créateur de ChatGPT, ont averti ce mardi 30 mai, dans une tribune publiée en ligne, des menaces d'"extinction" pour l'humanité posées par l'essor de l'intelligence artificielle (IA), d’après des informations de la BBC

Les progrès liés à l'intelligence artificielle de plus en plus "générale", dotée de capacités cognitives humaines et donc susceptible de bouleverser de nombreux métiers, a été symbolisée par le lancement en mars par OpenAI de GPT-4.

La lutte contre les risques liés à l'IA devrait être "une priorité mondiale au même titre que d'autres risques à l'échelle de la société, tels que les pandémies et les guerres nucléaires", selon les signataires sur le site internet du Center for AI Safety, une organisation à but non lucratif basée aux Etats-Unis.

Selon la BBC, le site Web du Center for AI Safety suggère un certain nombre de scénarios de catastrophe possibles liées à l’IA :

L’intelligence artificielle pourrait être transformée en armes - par exemple, des outils de découverte de drogues pourraient être utilisés pour fabriquer des armes chimiques.

La désinformation générée par l'IA pourrait déstabiliser la société et "saper la prise de décision collective".

Le pouvoir de l'IA pourrait devenir de plus en plus concentré entre de moins en moins de mains, permettant "aux régimes d'imposer des valeurs étroites grâce à une surveillance omniprésente et à une censure oppressive".

De nombreux autres experts pensent de la même manière que les craintes que l'IA anéantisse l'humanité sont irréalistes et détournent l'attention de problèmes tels que les biais dans les systèmes qui posent déjà problème.

Arvind Narayanan, informaticien à l'Université de Princeton, a précédemment déclaré à la BBC que les scénarios de catastrophe de type science-fiction sont irréalistes : "L'IA actuelle est loin d'être suffisamment capable pour que ces risques se matérialisent. En conséquence, elle détourne l'attention des méfaits à court terme de l'IA".

Elizabeth Renieris, associée de recherche principale à l'Institut d'éthique d'Oxford pour l'IA, a déclaré à BBC News qu'elle s'inquiétait davantage des risques plus proches du présent.

"Les progrès de l'IA amplifieront l'ampleur de la prise de décision automatisée qui est biaisée, discriminatoire, exclusive ou autrement injuste tout en étant impénétrable et incontestable". Ils "entraîneraient une augmentation exponentielle du volume et de la diffusion de la désinformation, fracturant ainsi la réalité et érodant la confiance du public, et aggraveraient les inégalités, en particulier pour ceux qui restent du mauvais côté de la fracture numérique".

BBC

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !