Les chercheurs développent une nouvelle méthode pour mettre en œuvre de manière compacte l’IA de reconnaissance d’images

Les chercheurs développent une nouvelle méthode pour mettre en œuvre de manière compacte l’IA de reconnaissance d’images

La technologie d’intelligence artificielle (IA) utilisée dans la reconnaissance d’images possède une structure imitant la vision humaine et les neurones du cerveau. Il existe trois méthodes connues pour réduire la quantité de données requises pour le calcul et le calcul des composants visuels et neuronaux. Jusqu’à présent, le taux d’application de ces méthodes était déterminé par essais et erreurs.

Des chercheurs de l'Université de Tsukuba ont développé un nouvel algorithme qui identifie automatiquement la proportion optimale de chaque méthode. Cet algorithme devrait réduire la consommation d’énergie des technologies d’IA et contribuer à la miniaturisation des semi-conducteurs.

Les réseaux de neurones convolutifs (CNN) jouent un rôle essentiel dans des applications telles que la reconnaissance faciale lors de l'immigration dans les aéroports et la détection d'objets dans les véhicules autonomes.

Les CNN sont composés de couches convolutives et entièrement connectées ; le premier simule la vision humaine, tandis que le second permet au cerveau de déduire le type d'image à partir de données visuelles.

En réduisant le nombre de bits de données utilisés dans les calculs, les CNN peuvent maintenir la précision de la reconnaissance tout en réduisant considérablement les exigences de calcul. Cette efficacité permet au matériel de support d'être plus compact.

Trois méthodes de réduction ont été identifiées jusqu'à présent : l'amincissement du réseau (NS) pour minimiser les composantes visuelles, la compression profonde (DC) pour réduire les composantes neuronales et la quantification entière (IQ) pour diminuer le nombre de bits utilisés. Auparavant, il n'existait aucune directive définitive sur l'ordre de mise en œuvre ou d'attribution de ces méthodes.

La nouvelle étude, publiée dans Accès IEEE, établit que la séquence optimale de ces méthodes pour minimiser la quantité de données est IQ, suivie de NS et DC. De plus, les chercheurs ont créé un algorithme qui détermine le taux d’application de chaque méthode de manière autonome, éliminant ainsi le besoin d’essais et d’erreurs.

Cet algorithme permet de compresser un CNN 28 fois plus petit et 76 fois plus rapide que les modèles précédents.

Les implications de cette recherche sont sur le point de transformer la technologie de reconnaissance d’images de l’IA en réduisant considérablement la complexité informatique, la consommation d’énergie et la taille des dispositifs à semi-conducteurs de l’IA. Cette percée améliorera probablement la faisabilité généralisée du déploiement de systèmes d’IA avancés.