Un réseau neuronal optique adaptatif connecte des milliers de neurones artificiels
Les modèles informatiques modernes, par exemple pour les applications d’IA complexes et puissantes, poussent les processus informatiques numériques traditionnels dans leurs retranchements. De nouveaux types d’architecture informatique, qui imitent les principes de fonctionnement des réseaux de neurones biologiques, promettent un traitement des données plus rapide et plus économe en énergie.
Une équipe de chercheurs a développé une architecture dite basée sur les événements, utilisant des processeurs photoniques avec lesquels les données sont transportées et traitées au moyen de la lumière. À l’instar du cerveau, cela permet l’adaptation continue des connexions au sein du réseau neuronal. Ces connexions changeantes constituent la base des processus d’apprentissage.
Pour les besoins de l’étude, une équipe travaillant au Centre de recherche collaboratif 1459 (Matière intelligente), dirigée par les physiciens Prof. Wolfram Pernice et Prof. Martin Salinga et l’informaticien Prof. Benjamin Risse, tous de l’Université de Münster, a uni ses forces avec chercheurs des universités d’Exeter et d’Oxford au Royaume-Uni. L’étude a été publiée dans la revue Avancées scientifiques.
Ce qu’il faut pour un réseau neuronal dans l’apprentissage automatique, ce sont des neurones artificiels qui sont activés par des signaux excitateurs externes et qui ont des connexions avec d’autres neurones. Les connexions entre ces neurones artificiels sont appelées synapses, tout comme l’original biologique.
Pour leur étude, l’équipe de chercheurs de Münster a utilisé un réseau composé de près de 8 400 neurones optiques constitués d’un matériau à changement de phase couplé à un guide d’onde, et l’équipe a montré que la connexion entre deux de chacun de ces neurones peut en effet devenir plus forte ou plus faible (synaptique plasticité) et que de nouvelles connexions peuvent être formées ou celles existantes éliminées (plasticité structurelle).
Contrairement à d’autres études similaires, les synapses n’étaient pas des éléments matériels mais étaient codées en raison des propriétés des impulsions optiques, c’est-à-dire en raison de la longueur d’onde respective et de l’intensité de l’impulsion optique. Cela a permis d’intégrer plusieurs milliers de neurones sur une seule puce et de les connecter optiquement.
Par rapport aux processeurs électroniques traditionnels, les processeurs basés sur la lumière offrent une bande passante nettement plus élevée, permettant d’effectuer des tâches informatiques complexes avec une consommation d’énergie inférieure. Cette nouvelle approche consiste en une recherche fondamentale. « Notre objectif est de développer une architecture informatique optique qui permettra à long terme de calculer des applications d’IA de manière rapide et économe en énergie », explique Frank Brückerhoff-Plückelmann, l’un des principaux auteurs.
Le matériau non volatil à changement de phase peut être commuté entre une structure amorphe et une structure cristalline avec un réseau atomique hautement ordonné. Cette fonctionnalité permet un stockage permanent des données même sans alimentation électrique.
Les chercheurs ont testé les performances du réseau neuronal en utilisant un algorithme évolutif pour l’entraîner à distinguer les textes allemands et anglais. Le paramètre de reconnaissance utilisé était le nombre de voyelles dans le texte.