Voilà pourquoi la régulation de l’IA ne doit pas être laissée aux seuls experts <!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
High-tech
Un robot doté d'intelligence artificielle lors d'un salon sur les nouvelles technologies.
Un robot doté d'intelligence artificielle lors d'un salon sur les nouvelles technologies.
©Ethan Miller / GETTY IMAGES NORTH AMERICA / Getty Images via AFP

Intelligence artificielle

Des experts expliquent pourquoi il est utile de diversifier les méthodes de régulation de l'Intelligence Artificielle. Des débats éthiques devraient être au cœur des efforts visant à réglementer l’IA.

Dietram A. Scheufele

Dietram A. Scheufele

Dietram A. Scheufele est Professeur de communication en sciences de la vie à l'Université du Wisconsin-Madison.

Voir la bio »
Dominique Brossard

Dominique Brossard

Dominique Brossard est Professeure et occupe la chaire de communication en sciences de la vie à l'Université du Wisconsin-Madison.

Voir la bio »
Todd Newman

Todd Newman

Todd Newman est Professeur adjoint de communication en sciences de la vie à l'Université du Wisconsin-Madison.

Voir la bio »

Les sociétés démocratiques sont-elles prêtes pour un avenir dans lequel l’IA attribue, de manière algorithmique, des réserves limitées de respirateurs ou de lits d’hôpitaux pendant les pandémies ? Ou une dans laquelle l’IA alimente une course aux armements entre la création et la détection de la désinformation ? Ou influencer les décisions des tribunaux avec des mémoires d'amicus rédigés pour imiter les styles rhétorique et argumentatif des juges de la Cour suprême ?

Des décennies de recherche montrent que la plupart des sociétés démocratiques ont du mal à tenir des débats nuancés sur les nouvelles technologies. Ces discussions doivent être éclairées non seulement par les meilleures données scientifiques disponibles, mais également par les nombreuses considérations éthiques, réglementaires et sociales liées à leur utilisation. Les dilemmes difficiles posés par l’intelligence artificielle émergent déjà à un rythme qui dépasse la capacité des démocraties modernes à résoudre collectivement ces problèmes.

Un large engagement du public, ou son absence, constitue un défi de longue date dans l’assimilation des technologies émergentes et est essentiel pour relever les défis qu’elles entraînent.

Prêt ou pas, conséquences inattendues

Trouver un équilibre entre les possibilités impressionnantes des technologies émergentes comme l’IA et la nécessité pour les sociétés de réfléchir à la fois aux résultats attendus et imprévus n’est pas un défi nouveau. Il y a près de 50 ans, des scientifiques et des décideurs politiques se sont réunis à Pacific Grove, en Californie, pour ce que l'on appelle souvent la Conférence d'Asilomar afin de décider de l'avenir de la recherche sur l'ADN recombinant, ou de la transplantation de gènes d'un organisme dans un autre. La participation et la participation du public à leurs délibérations étaient minimes.

Les sociétés sont gravement limitées dans leur capacité à anticiper et à atténuer les conséquences involontaires de technologies émergentes rapidement comme l’IA sans l’engagement de bonne foi d’un large éventail de parties prenantes du public et d’experts. Et une participation limitée présente de réels inconvénients. Si Asilomar avait sollicité une contribution aussi large il y a 50 ans, il est probable que les questions de coût et d’accès auraient partagé l’agenda avec la science et l’éthique du déploiement de la technologie. Si cela s’était produit, le manque d’abordabilité des récents traitements contre la drépanocytose basés sur CRISPR, par exemple, aurait pu être évité.

L’IA court un risque très réel de créer des angles morts similaires en ce qui concerne les conséquences intentionnelles et involontaires qui ne seront souvent pas évidentes pour les élites telles que les dirigeants technologiques et les décideurs politiques. Si les sociétés ne parviennent pas à poser « les bonnes questions, celles qui intéressent les gens », a déclaré Sheila Jasanoff, spécialiste des études scientifiques et technologiques, dans une interview en 2021, « alors peu importe ce que dit la science, vous ne produirez pas les bonnes réponses ou options. pour la société. »

Les débats éthiques devraient être au cœur des efforts visant à réglementer l’IA.

Même les experts en IA s’inquiètent du manque de préparation des sociétés à faire progresser la technologie de manière responsable. Nous étudions les aspects publics et politiques de la science émergente. En 2022, notre groupe de recherche de l’Université du Wisconsin-Madison a interrogé près de 2 200 chercheurs ayant publié sur le thème de l’IA. Neuf personnes sur 10 (90,3 %) prédisent que les applications de l’IA auront des conséquences imprévues, et trois sur quatre (75,9 %) ne pensent pas que la société soit préparée aux effets potentiels des applications de l’IA.

Qui a son mot à dire sur l’IA ?

Les dirigeants de l’industrie, les décideurs politiques et les universitaires ont mis du temps à s’adapter à l’apparition rapide de puissantes technologies d’IA. En 2017, des chercheurs et des universitaires se sont réunis à Pacific Grove pour une autre petite réunion réservée à des experts, cette fois pour définir les principes de la future recherche sur l’IA. Le sénateur Chuck Schumer prévoit d'organiser le premier d'une série de forums AI Insight le 13 septembre 2023, pour aider les décideurs politiques de Beltway à réfléchir aux risques liés à l'IA avec des leaders technologiques comme Mark Zuckerberg de Meta et Elon Musk de X.

Pendant ce temps, le public a soif de contribuer à façonner notre avenir collectif. Seul environ un quart des adultes américains interrogés dans notre enquête sur l’IA de 2020 étaient d’accord sur le fait que les scientifiques devraient pouvoir « mener leurs recherches sans consulter le public » (27,8 %). Les deux tiers (64,6 %) estiment que « le public devrait avoir son mot à dire sur la manière dont nous appliquons la recherche scientifique et la technologie dans la société ».

Le désir de participation du public va de pair avec un manque généralisé de confiance dans le gouvernement et l’industrie lorsqu’il s’agit de façonner le développement de l’IA. Dans une enquête nationale réalisée en 2020 par notre équipe, moins d'un Américain sur 10 a indiqué qu'il faisait « principalement » ou « beaucoup » confiance au Congrès (8,5 %) ou à Facebook (9,5 %) pour garder à l'esprit le meilleur intérêt de la société dans le développement de l'IA. .

Le biais algorithmique n’est qu’une des préoccupations liées à l’intelligence artificielle.

Une bonne dose de scepticisme ?

La profonde méfiance du public à l’égard des principaux acteurs réglementaires et industriels n’est pas totalement injustifiée. Les dirigeants de l’industrie ont eu du mal à dissocier leurs intérêts commerciaux des efforts visant à développer un système de réglementation efficace pour l’IA. Cela a conduit à un environnement politique fondamentalement désordonné.

Les entreprises technologiques qui aident les régulateurs à réfléchir au potentiel et à la complexité de technologies telles que l’IA ne posent pas toujours de problèmes, surtout si elles font preuve de transparence quant aux conflits d’intérêts potentiels. Cependant, la contribution des leaders technologiques aux questions techniques sur l’utilisation possible de l’IA ne constitue qu’une petite pièce du puzzle réglementaire.

De manière bien plus urgente, les sociétés doivent déterminer pour quels types d’applications l’IA devrait être utilisée et comment. Les réponses à ces questions ne peuvent émerger que de débats publics impliquant un large éventail de parties prenantes sur les valeurs, l’éthique et l’équité. Pendant ce temps, le public s’inquiète de plus en plus de l’utilisation de l’IA.

L’IA ne va peut-être pas anéantir l’humanité de sitôt, mais elle risque de perturber de plus en plus la vie telle que nous la connaissons actuellement. Les sociétés disposent d’une fenêtre d’opportunité limitée pour trouver des moyens de s’engager dans des débats de bonne foi et de travailler en collaboration à une réglementation significative de l’IA afin de s’assurer que ces défis ne les submergent pas.

Cet article a été publié initialement sur le site The Conversation : cliquez ICI

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !