Un algorithme d'amélioration de la vision basé sur la physique

Un algorithme d’amélioration de la vision basé sur la physique

eLight (2022). DOI : 10.1186/s43593-022-00034-y » width= »800″ height= »530″>

Interprétation physique de l’algorithme VEViD montrant son impact dans le domaine spatial (rangée du haut) et dans le domaine spectral (rangée du bas). Dans le domaine spatial, la partie réelle de l’image est quasiment inchangée alors qu’une partie imaginaire est créée après diffraction. Cette observation appuie l’approximation mathématique dans la dernière partie de l’article. Le crédit: eLight (2022). DOI : 10.1186/s43593-022-00034-y

Dans un nouvel article publié dans eLight, une équipe de scientifiques dirigée par le professeur Bahram Jalali et l’étudiant diplômé Callen MacPhee de l’UCLA ont développé un nouvel algorithme pour effectuer des tâches d’imagerie computationnelle. L’article « VEViD : Amélioration de la vision via la diffraction virtuelle et la détection cohérente » utilise un algorithme basé sur la physique pour corriger le mauvais éclairage et le faible contraste des images capturées dans des conditions de faible luminosité.

Dans de telles conditions, les images numériques présentent souvent des qualités visuelles indésirables telles qu’un faible contraste, une perte de caractéristiques et un mauvais rapport signal/bruit. L’amélioration des images en basse lumière vise à améliorer ces qualités dans deux buts : une qualité visuelle accrue pour la perception humaine et une précision accrue des algorithmes de vision par ordinateur. Dans le premier cas, le traitement en temps réel peut être une aubaine pour une visualisation pratique. Dans ce dernier cas, il s’agit d’une exigence pour les applications émergentes telles que les véhicules autonomes et la sécurité où le traitement des images doit être effectué avec une faible latence.

L’article montre que la diffraction physique et la détection cohérente peuvent être utilisées comme une boîte à outils pour la transformation d’images et de vidéos numériques. Cette approche conduit à un nouvel algorithme étonnamment puissant pour l’amélioration de la faible luminosité et des couleurs.

Contrairement aux algorithmes traditionnels qui sont pour la plupart des règles empiriques élaborées à la main, l’algorithme VEViD émule des processus physiques. Contrairement aux approches basées sur l’apprentissage en profondeur, cette technique est unique en ce qu’elle a ses racines dans la physique déterministe. L’algorithme est interprétable et ne nécessite pas de données étiquetées pour la formation. Les auteurs expliquent que bien que le mappage aux processus physiques ne soit pas précis, il pourrait être possible à l’avenir d’implémenter un dispositif physique qui exécute l’algorithme dans le domaine analogique.

L’article démontre les hautes performances de VEViD dans plusieurs applications d’imagerie telles que les caméras de sécurité, la conduite de nuit et l’exploration spatiale. La capacité de VEViD à effectuer une amélioration des couleurs est également démontrée.

La vitesse de calcul exceptionnelle de l’algorithme est prouvée par le traitement de la vidéo 4k à plus de 200 images par seconde. La comparaison avec les principaux algorithmes d’apprentissage en profondeur montre une qualité d’image comparable ou meilleure, mais avec une vitesse de traitement plus rapide d’un à deux ordres de grandeur.

Les réseaux de neurones profonds se sont avérés des outils puissants pour la détection et le suivi d’objets, et ils sont la clé de plusieurs technologies émergentes qui exploitent des machines autonomes. Les auteurs montrent l’utilité de VEViD en tant qu’outil de prétraitement qui augmente la précision de la détection d’objets par un réseau de neurones populaire (YOLO).

Le traitement préalable d’une image par VEViD permet aux réseaux de neurones entraînés sur des images de lumière du jour de reconnaître des objets dans des environnements nocturnes sans réentraînement, ce qui rend ces réseaux plus robustes tout en économisant beaucoup de temps et d’énergie.

Fourni par l’Académie chinoise des sciences


A lire également