Les futurs algorithmes d’IA ont le potentiel d’apprendre comme les humains, selon des chercheurs
Les souvenirs peuvent être aussi difficiles à conserver pour les machines que pour les humains. Pour aider à comprendre pourquoi les agents artificiels développent des trous dans leurs propres processus cognitifs, les ingénieurs électriciens de l’Ohio State University ont analysé l’impact d’un processus appelé « apprentissage continu » sur leurs performances globales.
L’apprentissage continu se produit lorsqu’un ordinateur est formé pour apprendre en continu une séquence de tâches, en utilisant ses connaissances accumulées à partir d’anciennes tâches pour mieux apprendre de nouvelles tâches.
Pourtant, un obstacle majeur que les scientifiques doivent encore surmonter pour atteindre de tels sommets est d’apprendre à contourner l’équivalent de l’apprentissage automatique de la perte de mémoire, un processus qui, chez les agents de l’IA, est connu sous le nom d' »oubli catastrophique ». Au fur et à mesure que les réseaux de neurones artificiels sont formés sur une nouvelle tâche après l’autre, ils ont tendance à perdre les informations acquises lors de ces tâches précédentes, un problème qui pourrait devenir problématique à mesure que la société s’appuie de plus en plus sur les systèmes d’IA, a déclaré Ness Shroff, un Ohio Eminent Chercheur et professeur d’informatique et d’ingénierie à l’Ohio State University.
« Alors que les applications de conduite automatisée ou d’autres systèmes robotiques apprennent de nouvelles choses, il est important qu’ils n’oublient pas les leçons qu’ils ont déjà apprises pour notre sécurité et la leur », a déclaré Shroff. « Notre recherche plonge dans les complexités de l’apprentissage continu dans ces réseaux de neurones artificiels, et ce que nous avons trouvé, ce sont des idées qui commencent à combler le fossé entre la façon dont une machine apprend et la façon dont un humain apprend. »
Les chercheurs ont découvert que de la même manière que les gens peuvent avoir du mal à se souvenir de faits contrastés sur des scénarios similaires, mais se souviennent facilement de situations intrinsèquement différentes, les réseaux de neurones artificiels peuvent mieux se souvenir des informations lorsqu’ils sont confrontés à diverses tâches successives, au lieu de celles qui partagent des caractéristiques similaires, Shroff a dit.
L’équipe, comprenant les chercheurs postdoctoraux de l’État de l’Ohio Sen Lin et Peizhong Ju et les professeurs Yingbin Liang et Shroff, présentera leurs recherches plus tard ce mois-ci lors de la 40e conférence internationale annuelle sur l’apprentissage automatique à Honolulu, Hawaï, une conférence phare sur l’apprentissage automatique.
Bien qu’il puisse être difficile d’enseigner aux systèmes autonomes à présenter ce type d’apprentissage dynamique tout au long de la vie, posséder de telles capacités permettrait aux scientifiques de faire évoluer les algorithmes d’apprentissage automatique à un rythme plus rapide et de les adapter facilement pour gérer des environnements en évolution et des situations inattendues. Essentiellement, l’objectif de ces systèmes serait qu’ils imitent un jour les capacités d’apprentissage des humains.
Les algorithmes d’apprentissage automatique traditionnels sont entraînés sur des données en même temps, mais les découvertes de cette équipe ont montré que des facteurs tels que la similarité des tâches, les corrélations négatives et positives, et même l’ordre dans lequel un algorithme apprend une tâche comptent dans la durée pendant laquelle un réseau artificiel conserve certaines connaissances.
Par exemple, pour optimiser la mémoire d’un algorithme, a déclaré Shroff, des tâches dissemblables doivent être enseignées dès le début du processus d’apprentissage continu. Cette méthode étend la capacité du réseau à recevoir de nouvelles informations et améliore sa capacité à apprendre ultérieurement d’autres tâches similaires sur toute la ligne.
Leur travail est particulièrement important car la compréhension des similitudes entre les machines et le cerveau humain pourrait ouvrir la voie à une compréhension plus approfondie de l’IA, a déclaré Shroff.
« Notre travail annonce une nouvelle ère de machines intelligentes capables d’apprendre et de s’adapter comme leurs homologues humains », a-t-il déclaré.