Le deep learning est-il un ingrédient nécessaire à l’intelligence artificielle ?
Le premier réseau de neurones artificiels, le Perceptron, a été introduit il y a environ 65 ans et se composait d’une seule couche. Cependant, pour trouver des solutions pour des tâches de classification plus complexes, des architectures de réseau neuronal plus avancées composées de nombreuses couches d’anticipation (consécutives) ont été introduites plus tard. C’est le composant essentiel de l’implémentation actuelle des algorithmes d’apprentissage en profondeur. Il améliore les performances des tâches analytiques et physiques sans intervention humaine et est à la base des produits d’automatisation du quotidien tels que les technologies émergentes pour les voitures autonomes et les chatbots autonomes.
La question clé à l’origine des nouvelles recherches publiées aujourd’hui dans Rapports scientifiques est de savoir si un apprentissage efficace des tâches de classification non triviales peut être réalisé à l’aide de réseaux d’anticipation peu profonds inspirés du cerveau, tout en nécessitant potentiellement moins de complexité de calcul.
« Une réponse positive remet en question le besoin d’architectures d’apprentissage en profondeur et pourrait orienter le développement d’un matériel unique pour la mise en œuvre efficace et rapide de l’apprentissage superficiel », a déclaré le professeur Ido Kanter, du département de physique de Bar-Ilan et multidisciplinaire Gonda (Goldschmied). Brain Research Center, qui a dirigé la recherche. « De plus, cela démontrerait comment l’apprentissage superficiel inspiré par le cerveau a une capacité de calcul avancée avec une complexité et une consommation d’énergie réduites. »
« Nous avons montré qu’un apprentissage efficace sur une architecture superficielle artificielle peut atteindre les mêmes taux de réussite de classification que ceux obtenus auparavant par des architectures d’apprentissage en profondeur composées de plusieurs couches et filtres, mais avec moins de complexité de calcul », a déclaré Yarden Tzach, un Ph.D. . étudiant et contributeur à ce travail. « Cependant, la réalisation efficace d’architectures peu profondes nécessite un changement dans les propriétés de la technologie GPU avancée et de futurs développements matériels dédiés », a-t-il ajouté.
L’apprentissage efficace sur des architectures peu profondes inspirées du cerveau va de pair avec une arbre dendritique apprentissage qui est basé sur des recherches expérimentales antérieures du professeur Kanter sur l’adaptation sous-dendritique utilisant cultures neuronalesainsi que d’autres propriétés anisotropes des neurones, comme différentes formes d’onde de pointe, réfractaire périodes et débits de transmission maximaux.
Pendant des années, la dynamique cérébrale et le développement de l’apprentissage automatique ont fait l’objet de recherches indépendantes ; cependant, la dynamique cérébrale s’est récemment révélée être la source de nouveaux types d’intelligence artificielle efficace.