Les scientifiques japonais ont été des pionniers de l'IA, mais ils sont rayés de son histoire

Les scientifiques japonais ont été des pionniers de l'IA, mais ils sont rayés de son histoire

L'annonce des chercheurs en intelligence artificielle John Hopfield et Geoffrey Hinton comme lauréats du prix Nobel de physique de cette année a suscité la célébration et la consternation quant au statut de l'IA dans la science et la société. Au Japon cependant, un autre sentiment domine : la frustration.

« Les chercheurs japonais auraient également dû gagner », proclame un éditorial du journal Asahi Shimbun. Félicitant Hopfield et Hinton, la Société japonaise des réseaux neuronaux a ajouté avec insistance : « Nous ne devons pas oublier le rôle joué par les chercheurs japonais pionniers dans l'établissement des fondations de la recherche sur les réseaux neuronaux. »

Les réseaux de neurones sont au centre de l'IA contemporaine. Ce sont des modèles permettant aux machines d’apprendre de manière indépendante grâce à des structures qui, bien que souvent vaguement, s’inspirent du cerveau humain.

Alors qui sont ces chercheurs japonais pionniers en IA ?

En 1967, Shun'ichi Amari a proposé une méthode de classification adaptative des modèles, qui permet aux réseaux de neurones d'auto-ajuster la façon dont ils catégorisent les modèles, grâce à l'exposition à des exemples d'entraînement répétés. Les recherches d'Amari anticipaient une méthode similaire connue sous le nom de « rétropropagation », l'une des principales contributions de Hinton dans ce domaine.

En 1972, Amari a décrit un algorithme d'apprentissage (un ensemble de règles pour effectuer une tâche particulière) qui était mathématiquement équivalent à l'article de Hopfield de 1982 cité par le Nobel sur la mémoire associative, qui permettait aux réseaux neuronaux de reconnaître des modèles malgré des entrées partielles ou corrompues.

Les chercheurs nord-américains travaillaient séparément en groupes au Japon et arrivaient à leurs conclusions de manière indépendante.

Plus tard, en 1979, Kunihiko Fukushima a créé le premier réseau neuronal convolutif multicouche au monde. Cette technologie a été l’épine dorsale du récent boom du deep learning, une approche de l’IA qui a donné naissance à des réseaux de neurones qui apprennent sans supervision, grâce à des architectures plus complexes. Si le prix Nobel de cette année était destiné aux « découvertes et inventions fondamentales permettant l'apprentissage automatique avec des réseaux de neurones artificiels », pourquoi ne pas récompenser Amari et Fukushima ?

Perspectives unilatérales

La communauté de l’IA elle-même débat de cette question. Il existe des arguments convaincants pour expliquer pourquoi Hopfield et Hinton correspondent mieux à la catégorie Nobel de « physique » et pourquoi l’équilibre national était important, étant donné que le prix de la paix a été attribué au Japonais Nihon Hidankyō.

Alors pourquoi devrions-nous encore nous inquiéter ?

La réponse réside dans les risques d’une partialité historique. Notre vision standard des réseaux de neurones artificiels est une histoire basée sur l’Atlantique Nord et, dans sa très grande majorité, sur l’Amérique du Nord. L’IA a connu une période de développement rapide dans les années 1950 et 1960.

En 1970, elle est entrée dans un « hiver de l’IA », au cours duquel la recherche a stagné. L'hiver s'est finalement transformé en printemps dans les années 1980, grâce à des villes comme Hopfield et Hinton. Les liens de ce dernier chercheur avec Google et OpenAI auraient alimenté l'essor actuel de l'IA basée sur les réseaux de neurones.

Et pourtant, c’est précisément durant ce prétendu « hiver » que des chercheurs finlandais, japonais et ukrainiens, entre autres, ont posé les bases du deep learning. L’intégration de ces développements dans notre histoire de l’IA est essentielle alors que la société est confrontée à cette technologie transformatrice. Nous devons élargir ce que nous entendons lorsque nous parlons d’IA d’une manière différente de la vision actuelle proposée par la Silicon Valley.

Au cours de la dernière année, Yasuhiro Okazawa, de l'Université de Kyoto, Masahiro Maejima, du Musée national de la nature et des sciences de Tokyo, et moi-même avons dirigé un projet d'histoire orale centré sur Kunihiko Fukushima et le laboratoire de la NHK où il a développé le Neocognitron, un système de reconnaissance de formes visuelles qui est devenu la base des réseaux de neurones convolutifs.

NHK est le diffuseur public japonais, équivalent à la BBC. À notre grande surprise, nous avons découvert que le contexte dans lequel les recherches de Fukushima ont émergé avait ses racines dans des études psychologiques et physiologiques sur les audiences de la télévision. Cela amène la NHK à créer, en 1965, un laboratoire de « bionique de la vision ». Ici, les ingénieurs de la télévision pourraient contribuer à faire progresser les connaissances sur la psychologie et la physiologie humaines (comment fonctionnent les organismes vivants).

En effet, Fukushima considérait son propre travail comme consacré à la compréhension des organismes biologiques plutôt qu’à l’IA au sens strict. Les réseaux neuronaux ont été conçus comme des « simulations » de la manière dont le traitement de l'information visuelle pourrait fonctionner dans le cerveau et devraient contribuer à faire progresser la recherche physiologique. Le Neocognitron visait spécifiquement à aider à régler les débats sur la question de savoir si des stimuli sensoriels complexes correspondaient à l'activation d'un neurone particulier (cellule nerveuse) dans le cerveau ou à un modèle d'activation réparti dans une population de neurones.

Approches humaines

L'ingénieur Takayuki Itō, qui a travaillé sous Fukushima, a qualifié l'approche de son mentor de « science humaine ». Mais dans les années 1960, les chercheurs américains abandonnent les réseaux de neurones artificiels basés sur des modèles humains. Ils se préoccupaient davantage de l'application de méthodes statistiques à de grands ensembles de données que de l'étude patiente des complexités du cerveau. De cette façon, imiter la cognition humaine est devenu simplement une métaphore fortuite.

Lorsque Fukushima s'est rendu aux États-Unis en 1968, il a trouvé peu de chercheurs favorables à son approche de l'IA centrée sur le cerveau humain, et beaucoup ont confondu son travail avec du « génie médical ». Son manque d'intérêt pour la mise à l'échelle du Neocognitron avec des ensembles de données plus importants l'a finalement mis en contradiction avec la demande croissante de la NHK pour des technologies appliquées basées sur l'IA, ce qui a conduit à sa démission en 1988.

Pour Fukushima, le développement des réseaux neuronaux n’a jamais consisté à leur utilisation pratique dans la société, par exemple pour remplacer le travail humain ou pour la prise de décision. Ils représentaient plutôt une tentative de comprendre ce qui rendait uniques les vertébrés avancés comme les humains, et de cette manière rendre l’ingénierie plus humaine.

En effet, comme l'a noté Takayuki Itō dans l'une de nos interviews, cette approche de « science humaine » peut se prêter à une plus grande adhésion à la diversité. Bien que Fukushima lui-même n'ait pas suivi cette voie, les travaux d'Itō depuis la fin des années 1990 se sont concentrés sur « l'accessibilité » en relation avec les traits cognitifs des personnes âgées et handicapées. Ce travail reconnaît également des types d’intelligence différents de la recherche traditionnelle sur l’IA.

Fukushima garde aujourd’hui une distance mesurée par rapport à l’apprentissage automatique. « Ma position », dit-il, « a toujours été d'apprendre du cerveau ». Par rapport à Fukushima, les chercheurs en IA en dehors du Japon ont pris des raccourcis. Plus la recherche traditionnelle sur l’IA laisse de côté le cerveau humain, plus elle donne naissance à des technologies difficiles à comprendre et à contrôler. Débarrassé de ses racines dans les processus biologiques, nous ne pouvons plus expliquer pourquoi l’IA fonctionne et comment elle prend des décisions. C’est ce qu’on appelle le problème de la « boîte noire ».

Un retour à une approche « sciences humaines » résoudrait-il certains de ces problèmes ? Probablement pas tout seul, car le génie est sorti de la bouteille. Mais au milieu des inquiétudes mondiales concernant l’IA superintelligente entraînant la fin de l’humanité, nous devrions considérer une histoire mondiale remplie de compréhensions alternatives de l’IA. Cette dernière histoire est malheureusement laissée de côté par le prix Nobel de physique de cette année.