Avec l’intelligence artificielle, les ordinateurs de demain n’auront plus rien à voir avec ce que nous connaissons<!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
High-tech
Des ordinateurs portables MacBook Air repensés sont exposés lors de la WWDC22 le 06 juin 2022 à Cupertino, en Californie.
Des ordinateurs portables MacBook Air repensés sont exposés lors de la WWDC22 le 06 juin 2022 à Cupertino, en Californie.
©JUSTIN SULLIVAN / GETTY IMAGES AMÉRIQUE DU NORD / Getty Images via AFP

Innovation

L'intelligence artificielle redéfinit l'informatique. Dans un avenir proche, les ordinateurs pourraient améliorer leurs performances au fil du temps grâce à l’IA et avec le deep learning.

Thierry Berthier

Thierry Berthier

Thierry Berthier est Maître de Conférences en mathématiques à l'Université de Limoges et enseigne dans un département informatique. Il est chercheur au sein de la Chaire de cybersécurité & cyberdéfense Saint-Cyr – Thales -Sogeti et est membre de l'Institut Fredrik Bull.

Voir la bio »

Atlantico : L’intelligence artificielle est de plus en plus présente dans nos ordinateurs. De quelle manière a-t-elle réinventé sur le plan technique ce que sont les ordinateurs ? Quels sont les principaux changements que ces technologies apportent ?

Thierry Berthier : Effectivement, l’intelligence artificielle se déploie à la fois dans les applications (le software) et dans le hardware sous la forme de puces spécifiques, GPU (Graphics Processing Unit) ou TPU (Tensor Processing Unit) dédiées à l’apprentissage automatique. L’intégration de puces optimisées pour faire tourner des réseaux de neurones permet de soulager la charge de calcul du processeur central et de traiter les applications d’apprentissage sur les images, les vidéos et le traitement du langage naturel. Les puces GPU, TPU permettent de « vectoriser » les calculs intensifs et d’accélérer le traitement des modèles d’IA. Les architectures des ordinateurs et des smartphones évoluent en intégrant de plus en plus de puces dédiées à l’apprentissage automatique. Ces puces sont également embarquées dans le hardware d’objets connectés ou de systèmes robotisés pour les doter de capacités d’apprentissage, de classification et de détection automatique. Ces objets ne se contentent plus d’être simplement connectés, ils s’enrichissent de capacités de traitement de l’information. Lorsque ces puces sont embarquées dans des systèmes robotisés mobiles dotés de capteurs, elles permettent de traiter localement, en temps réels, (dans le hardware du drone ou du robot) le flux des données issues de ces capteurs pour apporter de l’autonomie dans les déplacements du robot et dans ses actions. Ces nouvelles capacités sont très utiles dans des contextes ou le drone ou le robot n’est plus relié à sa station de contrôle terrestre et ne reçoit plus d’ordre de sa base. Dans cette situation, le drone doit se débrouiller seul. Il doit cartographier en temps réel son environnement, il doit détecter les obstacles, les pièges éventuels et se construire son propre itinéraire, en toute autonomie. Les puces neuromorphiques apportent de la puissance de calcul optimisée pour ce type de traitement.

À Lire Aussi

Pourquoi nous pourrions bien avoir des jumeaux digitaux dans les années à venir

Chris Bishop, directeur de Microsoft Research au Royaume-Uni, a déclaré « au cours des 40 dernières années, nous avons programmé les ordinateurs ; au cours des 40 prochaines années, nous les formerons ». Dans quelle mesure est-ce la réalité du machine learning des ordinateurs ?  

Il s’agit d’une évolution très probable des futurs ordinateurs qui intégreront « by design » des capacités d’apprentissage automatique à la fois dans leurs architectures, dans leurs systèmes d’exploitation, dans la gestion des flux de données, de la virtualisation, et dans les applications. L’ordinateur va apprendre à mieux connaitre son utilisateur, ses habitudes, ses besoins, ses attentes. Les assistants virtuels vont monter en puissance et en performance en offrant de nouvelles fonctionnalités. Les méthodes de conception de nouvelles applications vont évoluer également avec une spécification des fonctionnalités attendues de plus haut niveau. Cette idée n’est pas neuve puisqu’au début des années 2000, il existait déjà des ateliers de génie logiciel qui permettait d’automatiser la conception de programmes simples. Cette approche de l’ingénierie logicielle va évoluer grâce à l’IA. La cybersécurité bénéficie déjà de la puissance de l’apprentissage automatique dans les outils de détection d’attaque. Les solutions de supervision réseau de type SIEM UEBA s’appuient sur l’IA pour construire des modèles de normalité relatifs au fonctionnement d’un réseau puis pour identifier toute déviations par rapport à cette normalité. Cette approche centrée sur la donnée permet de détecter des menaces et des attaques inédites, furtives, non référencées dans une base d’attaque. Comme dans le domaine de la robotique, l’IA apporte de l’autonomie au système de détection des attaques ou des vols de données.

À Lire Aussi

Coupe du monde : fans de foot du monde entier, Big Brother vous surveille

Pendant des décennies, pour qu'un ordinateur fasse quelque chose, il fallait taper une commande, ou au moins cliquer sur un bouton. Ce n’est plus nécessairement le cas. Comment cela fonctionne-t-il ?

Tout d’abord, il ne s’agit pas d’une nouveauté liée à l’IA. Un ordinateur exécute régulièrement des fonctions en mode « tâche de fond ». il peut par exemple optimiser sa mémoire ou exécuter une mise à jour de sécurité de manière totalement automatique sans action humaine, ou encore procéder à une sauvegarde des données, un archivage sans aucun clic ou commande saisie. Il n’y a pas en général d’IA derrière ces automatismes fonctionnels. Votre question s’applique plus au niveau d’autonomie que les futurs machine vont proposer par défaut. On peut imaginer qu’à l’achat d’un nouvel ordinateur, après son déballage et sa mise en route, la machine commence par apprendre les habitudes de son utilisateur pour optimiser les services qu’elle va lui proposer par la suite. Une fois cette phase initiale d’apprentissage réalisée, la machine pourrait poursuivre son apprentissage au fil de l’eau en améliorant en permanence ses performances. Les IA embarquées pourraient, elles aussi, évoluer en devenant bien plus généralistes que les actuels modèles d’apprentissage encore très verticaux. La cyber-protection de la machine pourrait elle aussi évoluer et s’améliorer tout au long de son exploitation. C’est en ce sens qu’il faut considérer le « non clic » ou l’absence de commande saisie par l’utilisateur.

Quels pourraient être les changements à venir de l’IA sur les ordinateurs ?

Les IA embarquées dans les applications vont certainement évoluer selon plusieurs directions. Elles vont tout d’abord devenir plus frugales dans leur phase d’entrainement : concrètement, il faudra moins de données pour entrainer un modèle comme on le fait aujourd’hui avec beaucoup plus de données. L’apprentissage par renforcement (RL) va permettre de construire des applications capables d’apprendre au fil de l’eau en observant des interactions. Les IA sont encore aujourd’hui très verticales, efficaces sur un seul type de tâche (classification ou détection) mais non adaptables à d’autres types de fonctions. Les IA spécialisées vont nécessairement évoluer vers des modèles plus généralistes. Les IA embarquées dans les systèmes robotisés vont transformer l’industrie, l’agriculture, les mobilités, les services, la médecine, la logistique. Enfin, les applications militaires de l’IA vont transformer l’art de la guerre et nous contraindre à une révision profonde des doctrines.

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !