Pourquoi entrer en contact avec notre « cerveau de gerbille » pourrait aider les machines à mieux écouter

Pourquoi entrer en contact avec notre « cerveau de gerbille » pourrait aider les machines à mieux écouter

Des chercheurs de l'Université Macquarie ont démystifié une théorie vieille de 75 ans sur la façon dont les humains déterminent la provenance des sons, et cela pourrait révéler le secret de la création d'une prochaine génération d'appareils auditifs plus adaptables et plus efficaces, allant des aides auditives aux smartphones.

Dans les années 1940, un modèle technique a été développé pour expliquer comment les humains peuvent localiser une source sonore en se basant sur des différences de quelques dizaines de millionièmes de seconde seulement entre le moment où le son atteint chaque oreille.

Ce modèle fonctionnait sur la théorie selon laquelle nous devons disposer d'un ensemble de détecteurs spécialisés dont la seule fonction était de déterminer d'où venait un son, avec une localisation dans l'espace représentée par un neurone dédié.

Depuis lors, ses hypothèses guident et influencent la recherche – et la conception des technologies audio.

Mais un nouveau document de recherche publié dans Biologie actuelle par des chercheurs de l'Université Macquarie Hearing a finalement révélé que l'idée d'un réseau de neurones dédié à l'audition spatiale ne tient pas.

L'auteur principal, David McAlpine, professeur émérite d'audition à l'Université Macquarie, a passé les 25 dernières années à prouver qu'un animal après l'autre utilisait en réalité un réseau neuronal beaucoup plus clairsemé, les neurones des deux côtés du cerveau remplissant cette fonction en plus d'autres.

Montrer cela en action chez l’homme était plus difficile.

Grâce à la combinaison d'un test auditif spécialisé, d'une imagerie cérébrale avancée et de comparaisons avec le cerveau d'autres mammifères, notamment les singes rhésus, lui et son équipe ont montré pour la première fois que les humains utilisent également ces réseaux plus simples.

« Nous aimons penser que notre cerveau doit être bien plus avancé que celui des autres animaux à tous égards, mais ce n'est que de l'orgueil », déclare le professeur McAlpine.

« Nous avons pu montrer que les gerbilles sont comme des cobayes, les cobayes sont comme des singes rhésus et les singes rhésus sont comme les humains à cet égard.

« Une forme de circuit neuronal clairsemée et économe en énergie remplit cette fonction – notre cerveau de gerbille, si vous préférez. »

L'équipe de recherche a également prouvé que le même réseau neuronal sépare la parole des sons de fond, une découverte importante pour la conception des appareils auditifs et des assistants électroniques de nos téléphones.

Tous les types d’audition artificielle sont confrontés au défi de l’audition dans le bruit, connu sous le nom de « problème des cocktails ». Il est difficile pour les personnes malentendantes de distinguer une voix dans un espace bondé, et pour nos appareils intelligents de comprendre quand nous leur parlons.

Le professeur McAlpine affirme que les dernières découvertes de son équipe suggèrent que plutôt que de nous concentrer sur les grands modèles de langage (LLM) actuellement utilisés, nous devrions adopter une approche beaucoup plus simple.

« Les LLM sont brillants pour prédire le mot suivant dans une phrase, mais ils essaient d'en faire trop », dit-il.

« Être capable de localiser la source d'un son est la chose importante ici, et pour ce faire, nous n'avons pas besoin d'un cerveau linguistique » mental profond « . D'autres animaux peuvent le faire, mais ils n'ont pas de langage.

« Lorsque nous écoutons, notre cerveau ne suit pas le son tout le temps, ce que tentent de faire les grands processeurs de langage.

« Au lieu de cela, nous, ainsi que d'autres animaux, utilisons notre « cerveau superficiel » pour détecter de très petits extraits de son, y compris la parole, et utilisons ces extraits pour marquer l'emplacement et peut-être même l'identité de la source.

« Nous n'avons pas besoin de reconstruire un signal haute fidélité pour ce faire, mais plutôt de comprendre comment notre cerveau représente ce signal de manière neuronale, bien avant qu'il n'atteigne un centre du langage dans le cortex.

« Cela nous montre qu'une machine n'a pas besoin d'être entraînée au langage comme le cerveau humain pour pouvoir écouter efficacement.

« Nous n'avons besoin que de ce cerveau de gerbille. »

La prochaine étape pour l’équipe consiste à identifier la quantité minimale d’informations pouvant être transmise dans un son tout en obtenant la quantité maximale d’écoute spatiale.

Ce contenu a été initialement publié sur The Macquarie University Lighthouse.