Les écouteurs à filtrage de bruit alimentés par l'IA donnent aux utilisateurs le pouvoir de choisir ce qu'ils veulent entendre
Les écouteurs antibruit sont une aubaine pour vivre et travailler dans des environnements bruyants. Ils identifient automatiquement les bruits de fond et les annulent pour une paix et une tranquillité indispensables. Cependant, la suppression du bruit typique ne parvient pas à faire la distinction entre les bruits de fond indésirables et les informations cruciales, laissant les utilisateurs de casques inconscients de leur environnement.
Shyam Gollakota, de l'Université de Washington, est un expert dans l'utilisation d'outils d'IA pour le traitement audio en temps réel. Son équipe a créé un système d’audition ciblée de la parole dans des environnements bruyants et développé des écouteurs basés sur l’IA qui filtrent sélectivement des sons spécifiques tout en en préservant d’autres. Il présente son travail le 16 mai, dans le cadre d'une réunion conjointe de l'Acoustical Society of America et de l'Association canadienne d'acoustique, qui se tiendra du 13 au 17 mai au Centre Shaw situé au centre-ville d'Ottawa, Ontario, Canada.
« Imaginez que vous êtes dans un parc, admirant le chant des oiseaux, mais ensuite vous entendez le bavardage bruyant d'un groupe de personnes à proximité qui ne peuvent tout simplement pas s'arrêter de parler », a déclaré Gollakota. « Imaginez maintenant si vos écouteurs pouvaient vous permettre de vous concentrer sur les sons des oiseaux pendant que le reste du bruit disparaît. C'est exactement ce que nous cherchons à réaliser avec notre système. »
Gollakota et son équipe ont combiné une technologie de réduction du bruit avec un réseau neuronal basé sur un smartphone, formé pour identifier 20 catégories différentes de bruits environnementaux. Il s'agit notamment des réveils, des bébés qui pleurent, des sirènes, des klaxons de voiture et des chants d'oiseaux. Lorsqu'un utilisateur sélectionne une ou plusieurs de ces catégories, le logiciel identifie et diffuse ces sons via les écouteurs en temps réel tout en filtrant tout le reste.
Faire fonctionner ce système de manière transparente n’était cependant pas une tâche facile.
« Pour réaliser ce que nous voulons, nous avions d'abord besoin d'une intelligence de haut niveau pour identifier tous les différents sons d'un environnement », a déclaré Gollakota.
« Ensuite, nous devions séparer les sons cibles de tous les bruits parasites. Comme si cela n'était pas assez difficile, les sons que nous avions extraits devaient être synchronisés avec les sens visuels de l'utilisateur, car il ne pouvait pas entendre quelqu'un deux secondes trop tard. Cela signifie que le Les algorithmes des réseaux neuronaux doivent traiter les sons en temps réel en moins d'un centième de seconde, ce que nous avons réalisé. »
L’équipe a utilisé cette approche basée sur l’IA pour se concentrer sur la parole humaine. S'appuyant sur des techniques similaires basées sur le contenu, leur algorithme peut identifier un locuteur et isoler sa voix du bruit ambiant en temps réel pour des conversations plus claires.
Gollakota est ravi d'être à l'avant-garde de la prochaine génération d'appareils audio.
« Nous avons une opportunité tout à fait unique de créer l'avenir des appareils auditifs intelligents capables d'améliorer la capacité auditive humaine et d'augmenter l'intelligence pour rendre la vie meilleure », a déclaré Gollakota.