L’IA avait promis des machines semblables à des humains – en 1958
Un ordinateur de la taille d'une pièce équipé d'un nouveau type de circuits, le Perceptron, a été présenté au monde en 1958 dans un bref article enfoui profondément dans le New York Times. L'article cite la marine américaine selon laquelle le Perceptron mènerait à des machines qui « seront capables de marcher, de parler, de voir, d'écrire, de se reproduire et d'être conscientes de leur existence ».
Plus de six décennies plus tard, des affirmations similaires sont faites à propos de l’intelligence artificielle actuelle. Alors, qu’est-ce qui a changé entre-temps ? D’une certaine manière, pas grand-chose.
Le domaine de l’intelligence artificielle connaît un cycle d’expansion et de récession depuis ses débuts. Aujourd’hui, alors que ce domaine connaît un nouvel essor, de nombreux partisans de cette technologie semblent avoir oublié les échecs du passé et leurs raisons. Même si l’optimisme est moteur du progrès, il convient de prêter attention à l’histoire.
Le Perceptron, inventé par Frank Rosenblatt, a sans doute jeté les bases de l’IA. L'ordinateur analogique électronique était une machine d'apprentissage conçue pour prédire si une image appartenait à l'une des deux catégories suivantes. Cette machine révolutionnaire était remplie de fils qui reliaient physiquement différents composants entre eux. Les réseaux de neurones artificiels modernes qui sous-tendent l’IA familière comme ChatGPT et DALL-E sont des versions logicielles du Perceptron, mais avec beaucoup plus de couches, de nœuds et de connexions.
Tout comme l’apprentissage automatique moderne, si le Perceptron renvoyait la mauvaise réponse, il modifierait ses connexions afin de pouvoir mieux prédire ce qui se passerait la prochaine fois. Les systèmes d’IA modernes et familiers fonctionnent à peu près de la même manière. En utilisant un format basé sur la prédiction, les grands modèles de langage, ou LLM, sont capables de produire des réponses textuelles longues et impressionnantes et d'associer des images à du texte pour produire de nouvelles images basées sur des invites. Ces systèmes s’améliorent à mesure qu’ils interagissent davantage avec les utilisateurs.
Boom et effondrement de l’IA
Environ une décennie après que Rosenblatt a dévoilé le Perceptron Mark I, des experts comme Marvin Minsky ont affirmé que le monde « aurait une machine dotée de l’intelligence générale d’un être humain moyen » d’ici le milieu des années 1970. Mais malgré quelques succès, l’intelligence humaine était introuvable.
Il est rapidement devenu évident que les systèmes d’IA ne connaissaient rien de leur sujet. Sans l'expérience et les connaissances contextuelles appropriées, il est presque impossible de résoudre avec précision les ambiguïtés présentes dans le langage courant, une tâche que les humains accomplissent sans effort. Le premier « hiver » de l’IA, ou période de désillusion, a eu lieu en 1974, suite à l’échec perçu du Perceptron.
Cependant, en 1980, l’IA était de retour sur le marché et le premier boom officiel de l’IA battait son plein. De nouveaux systèmes experts sont apparus, des IA conçues pour résoudre des problèmes dans des domaines de connaissances spécifiques, capables d'identifier des objets et de diagnostiquer des maladies à partir de données observables. Il existait des programmes capables de tirer des conclusions complexes à partir d'histoires simples, la première voiture sans conducteur était prête à prendre la route et des robots capables de lire et de jouer de la musique jouaient devant un public en direct.
Mais il ne fallut pas longtemps pour que les mêmes problèmes étouffent à nouveau l'enthousiasme. En 1987, le deuxième hiver de l’IA a eu lieu. Les systèmes experts échouaient parce qu’ils ne pouvaient pas gérer de nouvelles informations.
Les années 1990 ont changé la manière dont les experts abordent les problèmes d’IA. Même si le dégel du deuxième hiver n’a pas entraîné de boom officiel, l’IA a subi des changements substantiels. Les chercheurs s’attaquaient au problème de l’acquisition des connaissances avec des approches d’apprentissage automatique basées sur les données qui ont changé la façon dont l’IA acquérait des connaissances.
Cette fois a également marqué un retour au perceptron de type réseau neuronal, mais cette version était beaucoup plus complexe, dynamique et, surtout, numérique. Le retour au réseau neuronal, ainsi que l’invention du navigateur Web et l’augmentation de la puissance de calcul, ont facilité la collecte d’images, l’extraction de données et la distribution d’ensembles de données pour des tâches d’apprentissage automatique.
Des refrains familiers
Avance rapide jusqu’à aujourd’hui et la confiance dans les progrès de l’IA a recommencé à faire écho aux promesses faites il y a près de 60 ans. Le terme « intelligence générale artificielle » est utilisé pour décrire les activités des LLM comme celles qui alimentent les chatbots IA comme ChatGPT. L'intelligence générale artificielle, ou AGI, décrit une machine dotée d'une intelligence égale à celle des humains, ce qui signifie que la machine serait consciente d'elle-même, capable de résoudre des problèmes, d'apprendre, de planifier l'avenir et éventuellement d'être consciente.
Tout comme Rosenblatt pensait que son Perceptron était la base d'une machine consciente et humaine, certains théoriciens contemporains de l'IA pensent également aux réseaux neuronaux artificiels d'aujourd'hui. En 2023, Microsoft a publié un article affirmant que « les performances de GPT-4 sont étonnamment proches des performances au niveau humain ».
Mais avant d’affirmer que les LLM font preuve d’une intelligence de niveau humain, il pourrait être utile de réfléchir à la nature cyclique des progrès de l’IA. Bon nombre des problèmes qui hantaient les précédentes itérations de l’IA sont toujours présents aujourd’hui. La différence réside dans la manière dont ces problèmes se manifestent.
Par exemple, le problème de la connaissance persiste encore aujourd’hui. ChatGPT s'efforce continuellement de répondre aux expressions idiomatiques, aux métaphores, aux questions rhétoriques et au sarcasme, des formes de langage uniques qui vont au-delà des connexions grammaticales et nécessitent plutôt de déduire le sens des mots en fonction du contexte.
Les réseaux de neurones artificiels peuvent, avec une précision impressionnante, détecter des objets dans des scènes complexes. Mais donnez à une IA une image d'un autobus scolaire couché sur le côté et elle dira avec beaucoup d'assurance qu'il s'agit d'un chasse-neige dans 97 % des cas.
Des leçons à retenir
En fait, il s’avère que l’IA est assez facile à tromper d’une manière que les humains identifieraient immédiatement. Je pense que c'est une considération qui mérite d'être prise au sérieux, compte tenu de la façon dont les choses se sont déroulées dans le passé.
L’IA d’aujourd’hui est très différente de celle d’autrefois, mais les problèmes du passé demeurent. Comme le dit le proverbe : l’histoire ne se répète peut-être pas, mais elle rime souvent.