Une nouvelle technique pourrait aider les voitures autonomes à mieux voir leur environnement

Une nouvelle technique pourrait aider les voitures autonomes à mieux voir leur environnement

Grâce à une technique développée par des chercheurs de la NC State University, les véhicules autonomes pourraient un jour mieux circuler sur les routes. La technique permet aux programmes d’intelligence artificielle de cartographier avec plus de précision des espaces tridimensionnels à l’aide d’images bidimensionnelles.

« La plupart des véhicules autonomes utilisent de puissants programmes d'IA appelés transformateurs de vision pour prendre des images 2D à partir de plusieurs caméras et créer une représentation de l'espace 3D autour du véhicule », explique Tianfu Wu, professeur agrégé de génie électrique et informatique à NC State et auteur correspondant de un article sur la nouvelle technique. « Cependant, même si chacun de ces programmes d'IA adopte une approche différente, il reste encore beaucoup à faire. »

Bien que ces programmes d’IA utilisent des approches différentes, la nouvelle technique développée par Wu et ses collaborateurs a le potentiel de tous les améliorer considérablement.

« Notre technique, appelée Multi-View Attentive Contextualization (MvACon), est un complément plug-and-play qui peut être utilisé conjointement avec ces IA de transformateur de vision existantes pour améliorer leur capacité à cartographier des espaces 3D », explique Wu. « Les transformateurs de vision ne reçoivent aucune donnée supplémentaire de leurs caméras, ils sont simplement capables de mieux utiliser les données. »

L'équipe de recherche a testé les performances de MvACon avec trois principaux transformateurs de vision actuellement sur le marché, qui s'appuient tous sur un ensemble de six caméras pour collecter les images 2D qu'elles transforment.

MvACon a considérablement amélioré les performances des trois transformateurs de vision.

« Les performances ont été particulièrement améliorées en matière de localisation d'objets, ainsi que la vitesse et l'orientation de ces objets », explique Wu.

L'équipe de recherche a présenté l'article intitulé « Multi-View Attentive Contextualization for Multi-View 3D Object Detection » lors de la conférence IEEE/CVF de cette année sur la vision par ordinateur et la reconnaissance de formes.