Une nouvelle loi d’échelle démontre comment l’IA s’adapte aux changements de catégories
Le monde réel présente de nombreux défis pour les missions d'IA. L’un de ces défis réside dans l’exigence selon laquelle les machines seront capables de reconnaître et d’apprendre rapidement de nouveaux objets qu’elles n’ont jamais vus auparavant. Une IA robuste aux changements sera d’une grande utilité pour s’adapter rapidement à une réalité dynamique, qu’il s’agisse d’un robot reconnaissant de nouveaux produits dans une épicerie ou d’une voiture autonome interagissant avec de nouveaux panneaux routiers ou des objets qui l’entourent.
Des chercheurs de l’Université Bar-Ilan ont découvert une nouvelle loi universelle détaillant la manière dont les réseaux de neurones artificiels gèrent un nombre croissant de catégories à identifier. Cette loi démontre comment le taux d'erreur d'identification de tels réseaux augmente avec le nombre d'objets reconnaissables requis.
Cette loi s’est avérée régir les architectures de réseaux neuronaux superficiels et profonds, indiquant que les réseaux superficiels, similaires à celui du cerveau, peuvent imiter la fonctionnalité des réseaux plus profonds. Une architecture large et peu profonde peut être aussi performante qu’une architecture étroite et profonde, tout comme un bâtiment large et peu élevé peut abriter le même nombre d’habitants qu’un gratte-ciel étroit.
La nouvelle loi, connue sous le nom de loi de mise à l'échelle, a été révélée dans une étude publiée aujourd'hui dans Physica A : Mécanique statistique et ses applications par une équipe de chercheurs dirigée par le professeur Ido Kanter du département de physique de l'université Bar-Ilan et du centre de recherche multidisciplinaire sur le cerveau de Gonda (Goldschmied).
Ella Koresh, étudiante de premier cycle et collaboratrice clé de la recherche, souligne les implications pratiques de cette découverte. « Il s'agit d'une avancée significative car l'un des aspects les plus critiques de l'apprentissage profond est la latence, le temps nécessaire au réseau pour traiter et identifier un objet. À mesure que les réseaux s'approfondissent, la latence augmente, entraînant des retards dans la réponse du modèle, tandis que la latence augmente. Les réseaux inspirés du cerveau ont une latence plus faible et une réponse plus rapide », explique-t-elle.
La réduction de la latence des systèmes d’IA a de profondes implications sur les processus décisionnels en temps réel. De plus, la loi d’échelle introduite dans cette recherche est vitale pour l’apprentissage de scénarios où le nombre d’étiquettes est dynamique.