Voilà comment le manque de régulation de l’intelligence Artificielle nous met d’ores et deja sérieusement en danger <!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
Economie
Voilà comment le manque de régulation de l’intelligence Artificielle nous met d’ores et deja sérieusement en danger
©

Avenir numérique

Daron Acemoğlu, professeur d'économie au MIT, nous décrit les différents impacts de l'IA sur le monde de demain et pourquoi nous devons nous y préparer dès maintenant.

Daron Acemoğlu

Daron Acemoğlu

Daron Acemoğlu est professeur d'économie au MIT. 

Voir la bio »

Atlantico : Nous vivons l'avènement d'une révolution scientifique et avec l'intelligence artificielle les machines vont remplacer les humains dans de plus en plus de tâches et améliorer leur quotidien, mais comme vous avez pu le remarquer le manque de régulation représente un certain danger. Quels sont les différents problèmes que posent les algorithmes d'IA dans la société d'aujourd'hui ?

Daron Acemoğlu : Absolument. L'IA a des effets considérables. Elle a un impact sur le travail, remplace et évince les humains de diverses tâches, et transforme la communication. Elle accroît également la surveillance.

Dans tous ces domaines, le manque de réglementation est un énorme problème.

C'est dans le domaine des réseaux sociaux et de la surveillance des entreprises qu'il est le plus facile de s'en rendre compte. La manière dont des entreprises telles que Facebook peuvent influencer ce que nous voyons et ce que nous pensons, et la quantité de données que Google connaît sur nous, n'ont guère d'équivalent dans le passé (même le grand George Orwell aurait été choqué). La plupart des technologies ont été réglementées à un moment ou à un autre. Mais je pense que les effets de l'IA sont suffisamment envahissants pour que la réglementation soit encore plus importante que par le passé.

Des problèmes similaires se posent lorsqu'il s'agit de l'utilisation de l'IA dans le processus de production. La promesse était que l'IA allait créer une productivité beaucoup plus grande et des emplois plus significatifs pour nous. Rien ne le prouve à ce jour. En fait, la plupart des applications de l'IA ne sont pas très productives, et la partie intelligence de l'intelligence artificielle est surtout dans l'esprit des très bruyants promoteurs de cette technologie dans la Silicon Valley et ailleurs. Cela dit, l'IA a tout de même des effets considérables sur les travailleurs et le travail. Prenez par exemple l'utilisation de l'IA par Amazon pour surveiller constamment ses employés. Des preuves récentes montrent que les employés d'Amazon souffrent de taux d'accidents du travail beaucoup plus élevés pendant les périodes de pointe que les travailleurs comparables, car cet environnement de surveillance les oblige à travailler incroyablement vite sans faire de pause.

À Lire Aussi

Le progrès et l'intelligence artificielle

Plus largement, le déplacement des travailleurs de diverses tâches, notamment le service à la clientèle, les fonctions de back-office, les emplois de bureau et, de plus en plus, la vente au détail, modifie fondamentalement l'équilibre du pouvoir entre le capital et le travail.


Leur développement pourrait-il créer des inégalités sur le marché du travail ?


Les effets de déplacement de l'automatisation sont presque toujours inégalitaires. L'automatisation basée sur l'IA ne fait pas exception. Prenez les exemples d'automatisation par l'IA que je viens de mentionner. Toutes ces applications déplacent les travailleurs peu et moyennement qualifiés, et augmentent donc à la fois les salaires et l'égalité entre les travailleurs et les inégalités entre les propriétaires du capital et les travailleurs.

Y aura-t-il un souci de monopoles pour les entreprises qui auront franchi le pas de l'intelligence artificielle avant tout le monde ?

Absolument. Ce qui est si problématique dans la vague actuelle de recherche et de déploiement de l'IA, c'est qu'elle suit une vision façonnée par quelques entreprises, comme Big Tech aux États-Unis et des entreprises technologiques gargantuesques similaires en Chine. Leur vision et leur intérêt personnel poussent l'IA dans une direction qui concentre une énorme quantité de données, de capacités de surveillance et de pouvoir entre les mains de quelques acteurs (ces mêmes entreprises et leurs gouvernements). Cela fait partie des effets inégalitaires de la technologie, mais c'est aussi la raison pour laquelle nous ne devons pas être naïfs et attendre de grands avantages sociétaux de cette technologie si elle continue sur sa voie actuelle. Si elle continue sur cette voie, elle augmentera le pouvoir monopolistique de ces entreprises dans tous les domaines (marchés de produits, marchés du travail et recherche), et je pense qu'elle commencera bientôt à détruire les fondements d'une société démocratique (et a déjà commencé à le faire).

Comment l'État doit-il réglementer l'intelligence artificielle ? Est-il possible qu'il la régule avant qu'elle ne devienne problématique ?

C'est la question à un million de dollars. Pour être honnête, je ne sais pas. Il y a de nombreux modèles alternatifs à envisager. Il est clair pour moi qu'une telle quantité de données utilisées par les entreprises sur les consommateurs n'est pas saine. Mais ce qui peut être fait à ce sujet doit être étudié plus en détail. Des exigences plus strictes en matière de protection de la vie privée seraient certainement utiles, mais elles sont difficiles à mettre en œuvre, comme le montre l'expérience du GDPR européen. Je pense que cette politique avait exactement la bonne idée, mais les preuves existantes suggèrent qu'elle s'est retournée contre elle et a même renforcé davantage les Big Tech.

Une autre idée qui a la cote est le démantèlement des grandes entreprises dans l'espace technologique. Encore une fois, je pense que cela pourrait être une bonne idée, mais je ne pense pas que ce sera une solution complète au problème, car même si Instagram et Facebook sont des entreprises distinctes, elles suivront les mêmes stratégies de collecte et de manipulation des données (et c'est pourquoi penser la réglementation est beaucoup plus important que l'antitrust).

Une autre idée encore est d'introduire une certaine forme d'interopérabilité, grâce à laquelle l'avantage des entreprises telles que Google en matière de données peut être réduit en permettant à d'autres d'utiliser la plateforme et certaines de leurs données sans désavantage concurrentiel. Je ne suis pas tout à fait sûr que ce type d'interopérabilité soit réalisable, et même s'il l'était, il se heurterait à des problèmes de confidentialité encore plus graves.

Je suis donc attiré par les idées qui prévoient une réglementation plus stricte du type de données que ces entreprises peuvent collecter et utiliser. Mais le diable se cache alors dans les détails et, bien sûr, beaucoup de gens vont crier que c'est trop d'intervention. Je reconnais également qu'une telle réglementation n'est pas possible actuellement aux États-Unis, car tous les talents se trouvent dans les entreprises technologiques. Pour pouvoir mettre en œuvre ce type de réglementation, l'État doit d'abord commencer à recruter les meilleurs experts et recréer l'éthique du service public (qui s'est perdue depuis le début des années 1980).

Que pourrait-il se passer si nous n'établissons pas un "principe de précaution réglementaire" sur l'Intelligence Artificielle ? Le bon fonctionnement de la démocratie pourrait-il être arrêté ?

J'ai proposé ce "principe de précaution réglementaire" dans un article récent. L'idée est que nous devrions nous engager dans une réglementation stricte avant même que les technologies ne soient matures, si nous ne sommes pas sûrs des effets d'une technologie comme l'IA, et s'il y a une probabilité raisonnable que si elle reste non réglementée aujourd'hui, elle changera l'équilibre politique et social du pouvoir au point de rendre toute réglementation future impossible ou inefficace. Je pense que l'IA répond à ces critères, et que nous devrions donc vraiment réfléchir à ce type de réglementation de précaution.

Beaucoup de gens, surtout aux États-Unis, trouveront cette idée très choquante. Ils pensent que le gouvernement est tellement inefficace et que le secteur technologique privé est tellement productif que la réglementation est toujours mauvaise, mais qu'elle serait particulièrement mauvaise (selon eux) lorsqu'elle est faite de manière générale plutôt que d'être dirigée vers un problème étroit très spécifique. Ils soutiendraient également qu'elle est très inefficace car elle ralentirait les progrès de cette technologie très prometteuse. Mais tout l'intérêt du principe de précaution réglementaire est de procéder à ce type de réglementation générale afin de ralentir la diffusion de ces technologies, de nous donner le temps de comprendre ce qu'elles font et de mettre en place les contre-pouvoirs adéquats à leur encontre. Je suis donc convaincu que nous avons besoin d'une telle mesure.

Mais dans tout cela, il y a un gros problème. Ni la société ni l'État ne sont favorables à une réglementation encore plus limitée. De nombreux États, comme la Chine, profitent du pouvoir de surveillance que leur confèrent les entreprises d'IA. D'autres, comme l'État américain, sont au moins partiellement capturés par Big Tech (même sous les démocrates). Et il y a d'autres questions sociétales, de sorte que le grand public n'a pas encore pris conscience de l'urgence de ces problèmes. Cela rend bien sûr une réglementation significative beaucoup moins probable.

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !