Une étude révèle que l’IA reconnaît les visages, mais pas comme le cerveau humain
La technologie de reconnaissance faciale imite les performances humaines et peut même les dépasser. Et il est de plus en plus courant qu’il soit utilisé avec des caméras pour une reconnaissance en temps réel, par exemple pour déverrouiller un smartphone ou un ordinateur portable, se connecter à une application de réseau social et s’enregistrer à l’aéroport.
Les réseaux neuronaux convolutifs profonds, également appelés DCNN, sont un élément central de l’intelligence artificielle pour identifier les images visuelles, y compris celles des visages. Le nom et la structure sont inspirés de l’organisation des voies visuelles du cerveau : une structure multicouche avec une complexité progressivement croissante dans chaque couche.
Les premières couches traitent de fonctions simples telles que la couleur et les bords d’une image, et la complexité augmente progressivement jusqu’à ce que les dernières couches effectuent la reconnaissance de l’identité du visage.
Avec l’IA, une question cruciale est de savoir si les DCNN peuvent aider à expliquer le comportement humain et les mécanismes cérébraux pour des fonctions complexes, telles que la perception des visages, la perception des scènes et le langage.
Dans une étude récente publiée dans le Actes de l’Académie nationale des sciences, une équipe de recherche de Dartmouth, en collaboration avec l’Université de Bologne, a étudié si les DCNN pouvaient modéliser le traitement du visage chez l’homme. Les résultats montrent que l’IA n’est pas un bon modèle pour comprendre comment le cerveau traite les mouvements avec des expressions changeantes, car à l’heure actuelle, l’IA est conçue pour reconnaître des images statiques.
« Les scientifiques tentent d’utiliser les réseaux neuronaux profonds comme outil pour comprendre le cerveau, mais nos résultats montrent que cet outil est assez différent du cerveau, du moins pour l’instant », explique le co-auteur principal Jiahui Guo, chercheur postdoctoral à l’Université de New York. Département des sciences psychologiques et cérébrales.
Contrairement à la plupart des études précédentes, cette étude a testé les DCNN en utilisant des vidéos de visages représentant diverses ethnies, âges et expressions, se déplaçant naturellement, au lieu d’utiliser des images statiques telles que des photographies de visages.
Pour tester à quel point les mécanismes de reconnaissance faciale chez les DCNN et chez les humains sont similaires, les chercheurs ont analysé les vidéos avec des DCNN de pointe et ont étudié comment elles sont traitées par les humains à l’aide d’un scanner d’imagerie par résonance magnétique fonctionnel qui a enregistré l’activité cérébrale des participants. . Ils ont également étudié le comportement des participants lors de tâches de reconnaissance faciale.
L’équipe a découvert que les représentations cérébrales des visages étaient très similaires entre les participants et que les codes neuronaux artificiels de l’IA pour les visages étaient très similaires dans les différents DCNN. Mais les corrélations entre l’activité cérébrale et les DCNN étaient faibles. Seule une petite partie des informations codées dans le cerveau est capturée par les DCNN, ce qui suggère que ces réseaux neuronaux artificiels, dans leur état actuel, fournissent un modèle inadéquat sur la manière dont le cerveau humain traite les visages dynamiques.
« Les informations uniques codées dans le cerveau pourraient être liées au traitement d’informations dynamiques et à des processus cognitifs de haut niveau comme la mémoire et l’attention », explique le co-auteur principal Feilong Ma, chercheur postdoctoral en sciences psychologiques et cérébrales.
Avec le traitement des visages, les gens ne se contentent pas de déterminer si un visage est différent d’un autre, mais déduisent également d’autres informations telles que leur état d’esprit et si cette personne est amicale ou digne de confiance. En revanche, les DCNN actuels sont conçus uniquement pour identifier les visages.
« Lorsque vous regardez un visage, vous obtenez beaucoup d’informations sur cette personne, y compris ce qu’elle pense, comment elle se sent et quel genre d’impression elle essaie de faire », explique le co-auteur James Haxby. professeur au Département des sciences psychologiques et du cerveau et ancien directeur du Centre de neurosciences cognitives. « De nombreux processus cognitifs sont impliqués qui vous permettent d’obtenir des informations sur d’autres personnes qui sont essentielles à l’interaction sociale. »
« Avec l’IA, une fois que le réseau neuronal profond a déterminé si un visage est différent d’un autre visage, c’est la fin de l’histoire », explique la co-auteure Maria Ida Gobbini, professeure agrégée au Département des sciences médicales et chirurgicales de l’Université. de Bologne. « Mais pour les humains, reconnaître l’identité d’une personne n’est qu’un début, car d’autres processus mentaux sont déclenchés, ce que l’IA ne possède pas actuellement. »
« Si les développeurs souhaitent que les réseaux d’IA reflètent plus précisément la façon dont le traitement des visages se produit dans le cerveau humain, ils doivent créer des algorithmes basés sur des stimuli réels, comme les visages dynamiques dans les vidéos, plutôt que sur des images statiques », explique Guo.