Réseaux de neurones, apprentissage automatique ? La science de l'IA lauréate du prix Nobel expliquée
Le prix Nobel de physique a été décerné mardi à deux scientifiques pour leurs découvertes qui ont jeté les bases de l'intelligence artificielle utilisée par des outils extrêmement populaires tels que ChatGPT.
Geoffrey Hinton, Canadien d'origine britannique, connu comme un « parrain de l'IA, » et le physicien américain John Hopfield ont reçu le prix pour « découvertes et inventions qui permettent l'apprentissage automatique avec des réseaux de neurones artificiels, » » a déclaré le jury Nobel.
Mais qu’est-ce que c’est et qu’est-ce que tout cela signifie ? Voici quelques réponses.
Que sont les réseaux de neurones et l’apprentissage automatique ?
Mark van der Wilk, expert en apprentissage automatique à l'université d'Oxford, a déclaré à l'AFP qu'un réseau neuronal artificiel est une construction mathématique. « vaguement inspiré » par le cerveau humain.
Notre cerveau possède un réseau de cellules appelées neurones, qui répondent aux stimuli extérieurs, comme les choses que nos yeux ont vues ou nos oreilles ont entendues, en s'envoyant des signaux les uns aux autres.
Lorsque nous apprenons des choses, certaines connexions entre neurones deviennent plus fortes, tandis que d’autres s’affaiblissent.
Contrairement à l’informatique traditionnelle, qui fonctionne davantage comme la lecture d’une recette, les réseaux de neurones artificiels imitent grossièrement ce processus.
Les neurones biologiques sont remplacés par des calculs simples parfois appelés « nœuds »- et les stimuli entrants dont ils apprennent sont remplacés par des données d'entraînement.
L’idée est que cela pourrait permettre au réseau d’apprendre au fil du temps, d’où le terme d’apprentissage automatique.

Qu'a découvert Hopfield ?
Mais avant que les machines puissent apprendre, une autre caractéristique humaine était nécessaire : la mémoire.
Avez-vous déjà eu du mal à vous souvenir d'un mot ? Considérez l'oie. Vous pourriez parcourir des mots similaires – crétin, bien, goule – avant de frapper une oie.
« Si on vous donne un modèle qui ne correspond pas exactement à ce dont vous devez vous souvenir, vous devez remplir les espaces vides, » van der Wilk a déclaré.
« C'est ainsi que vous vous souvenez d'un souvenir particulier. »
C'était l'idée derrière le « Réseau Hopfield »-également appelé « mémoire associative »— que le physicien a développé au début des années 1980.
La contribution de Hopfield signifie que lorsqu'un réseau neuronal artificiel reçoit quelque chose qui ne va pas, il peut parcourir des modèles précédemment stockés pour trouver la correspondance la plus proche.
Cela constitue une avancée majeure pour l’IA.


Il a donc fallu attendre les années 2010 pour voir une vague de percées « a révolutionné tout ce qui touche au traitement d'images et au traitement du langage naturel, » » dit Bach.
De la lecture d’analyses médicales à la conduite de voitures autonomes, en passant par la prévision météorologique et la création de deepfakes, les utilisations de l’IA sont désormais trop nombreuses pour être comptées.
Mais est-ce vraiment de la physique ?
Hinton avait déjà remporté le prix Turing, considéré comme le Nobel de l'informatique.
Mais plusieurs experts ont déclaré qu’il s’agissait d’un prix Nobel bien mérité dans le domaine de la physique, qui a ouvert la voie à la science qui mènerait à l’IA.
Le chercheur français Damien Querlioz a souligné que ces algorithmes étaient à l'origine « inspiré de la physique, en transposant la notion d'énergie dans le domaine de l'informatique ».
Van der Wilk a dit que le premier Nobel « pour le développement méthodologique de l’IA » a reconnu la contribution de la communauté des physiciens, ainsi que celle des gagnants.
Et même si ChatGPT peut parfois donner l’impression que l’IA est véritablement créative, il est important de se rappeler « machine » fait partie de l’apprentissage automatique.
« Il n'y a pas de magie ici, » van der Wilk a souligné.
« En fin de compte, tout dans l’IA n’est que multiplications et additions. »