Les écouteurs AI créent une « bulle sonore », atténuant tous les sons à plus de quelques mètres
Imaginez ceci : vous travaillez au bureau et portez des écouteurs antibruit pour atténuer les bavardages ambiants. Un collègue arrive à votre bureau et pose une question, mais plutôt que d'avoir besoin de retirer les écouteurs et de dire « Quoi ? », vous entendez clairement la question.
Pendant ce temps, la conversation autour de la fontaine à eau reste silencieuse dans la pièce. Ou imaginez-vous être dans un restaurant très fréquenté et entendre tout le monde à votre table, tout en réduisant les autres haut-parleurs et le bruit dans le restaurant.
Une équipe dirigée par des chercheurs de l'Université de Washington a créé un prototype de casque qui permet aux auditeurs de créer une telle « bulle sonore ». Les algorithmes d'intelligence artificielle de l'équipe combinés à un prototype de casque permettent à l'utilisateur d'entendre les gens parler dans une bulle d'un rayon programmable de 3 à 6 pieds.
Les voix et les sons à l'extérieur de la bulle sont atténués en moyenne de 49 décibels (environ la différence entre un aspirateur et un bruissement de feuilles), même si les sons lointains sont plus forts que ceux à l'intérieur de la bulle.
L'équipe a publié ses conclusions dans Électronique naturelle. Le code du dispositif de validation de principe est disponible pour que d'autres puissent s'en inspirer. Les chercheurs créent une startup pour commercialiser cette technologie.
« Les humains ne sont pas doués pour percevoir les distances à travers le son, en particulier lorsqu'il y a plusieurs sources sonores autour d'eux », a déclaré l'auteur principal Shyam Gollakota, professeur à l'UW à la Paul G. Allen School of Computer Science & Engineering.
« Notre capacité à nous concentrer sur les personnes à proximité peut être limitée dans des endroits comme les restaurants bruyants, donc créer des bulles sonores sur un appareil audible n'a pas été possible jusqu'à présent. Notre système d'IA peut en fait apprendre la distance de chaque source sonore dans une pièce, et traitez cela en temps réel, en 8 millisecondes, sur l'appareil auditif lui-même.
Les chercheurs ont créé le prototype avec des écouteurs antibruit disponibles dans le commerce. Ils ont apposé six petits microphones sur le bandeau. Le réseau neuronal de l'équipe, fonctionnant sur un petit ordinateur intégré connecté aux écouteurs, suit lorsque différents sons atteignent chaque microphone.
Le système supprime ensuite les sons provenant de l’extérieur de la bulle, tout en lisant et en amplifiant légèrement les sons à l’intérieur de la bulle (car les écouteurs antibruit laissent physiquement passer une partie du son).
« Nous avions travaillé sur un précédent système de haut-parleurs intelligents dans lequel nous répartissions les microphones sur une table parce que nous pensions que nous avions besoin de distances significatives entre les microphones pour extraire des informations sur la distance des sons », a déclaré Gollakota.
« Mais nous avons ensuite commencé à remettre en question notre hypothèse. Avons-nous besoin d'une grande séparation pour créer cette « bulle sonore » ? Ce que nous avons montré ici, c'est que ce n'est pas le cas. Nous avons pu le faire avec uniquement les microphones des écouteurs, et en en temps réel, ce qui était assez surprenant. »
Pour entraîner le système à créer des bulles sonores dans différents environnements, les chercheurs avaient besoin d'un ensemble de données sonores basées sur la distance, collectées dans le monde réel, ce qui n'était pas disponible. Pour rassembler un tel ensemble de données, ils ont placé les écouteurs sur une tête de mannequin.
Une plate-forme robotique faisait tourner la tête tandis qu'un haut-parleur en mouvement diffusait des bruits provenant de différentes distances. L'équipe a collecté des données avec le système de mannequin ainsi qu'avec des utilisateurs humains dans 22 environnements intérieurs différents, y compris des bureaux et des espaces de vie.
Les chercheurs ont déterminé que le système fonctionne pour plusieurs raisons. Premièrement, la tête du porteur réfléchit les sons, ce qui aide le réseau neuronal à distinguer les sons provenant de différentes distances. Deuxièmement, les sons (comme la parole humaine) ont plusieurs fréquences, chacune passant par différentes phases lorsqu’elle part de sa source.
Selon les chercheurs, l'algorithme d'IA de l'équipe compare les phases de chacune de ces fréquences pour déterminer la distance de toute source sonore (une personne qui parle, par exemple).
Des écouteurs comme les AirPods Pro 2 d'Apple peuvent amplifier la voix de la personne devant celui qui les porte tout en réduisant certains bruits de fond. Mais ces fonctionnalités fonctionnent en suivant la position de la tête et en amplifiant le son provenant d’une direction spécifique, plutôt qu’en évaluant la distance. Cela signifie que les écouteurs ne peuvent pas amplifier plusieurs haut-parleurs à la fois, perdent leur fonctionnalité si le porteur détourne la tête du haut-parleur cible et ne sont pas aussi efficaces pour réduire les sons forts provenant de la direction du haut-parleur.
Le système a été formé pour fonctionner uniquement à l’intérieur, car il est plus difficile d’obtenir un son d’entraînement propre à l’extérieur. Ensuite, l’équipe travaille à faire fonctionner la technologie sur les aides auditives et les écouteurs antibruit, ce qui nécessite une nouvelle stratégie de positionnement des microphones.