L'IA explicable peut détecter efficacement les cybermalaises AR/VR

L’IA explicable peut détecter efficacement les cybermalaises AR/VR

Cette simulation de montagnes russes en réalité virtuelle a été utilisée par Khaza Anuarul Hoque et une équipe de chercheurs pour simuler et détecter les cybermalaises. Crédit : Khaza Anuarul Hoque.

L’exposition à un environnement de réalité augmentée (AR) ou de réalité virtuelle (VR) peut provoquer des cybermalaises – un type particulier de mal des transports avec des symptômes allant des étourdissements aux nausées – et les recherches existantes pour atténuer la gravité des symptômes reposent souvent sur un approche unique.

Cependant, Khaza Anuarul Hoque, professeur adjoint au Département de génie électrique et d’informatique de l’Université du Missouri, et une équipe de chercheurs travaillent à développer une approche personnalisée pour identifier les cybermalaises en se concentrant sur les causes profondes, qui peuvent être différentes. pour chaque personne.

« Les cybermalaises ne sont pas génériques. Par exemple, une simulation pourrait déclencher des cybermalaises en moi alors que la même simulation peut ne pas provoquer de cybermalaises chez quelqu’un d’autre », a déclaré Hoque, qui dirige également le Dependable Cyber-Physical Systems Laboratory à MU.

« L’un des problèmes auxquels les gens sont généralement confrontés lorsqu’ils portent des casques de réalité virtuelle ou de réalité augmentée est que l’expérience de l’utilisateur peut se détériorer après un certain temps, y compris des symptômes de nausées et de vomissements, surtout si l’utilisateur est immergé dans un environnement virtuel où il y a beaucoup de mouvement. Cela peut dépendre de nombreux facteurs, notamment le sexe, l’âge et l’expérience d’une personne.

Hoque a déclaré qu’il souhaitait se concentrer sur un nouvel angle en utilisant l’IA explicable, car il a le potentiel de transformer l’industrie AR et VR.

« L’IA explicable est un excellent outil pour y parvenir, car généralement, les algorithmes d’apprentissage automatique ou d’apprentissage en profondeur peuvent vous dire quelle peut être la prédiction et la décision, tandis que l’IA explicable peut également dire à l’utilisateur comment et pourquoi l’IA a pris la décision », Hoque a dit. « Ainsi, au lieu d’imposer une technique d’atténuation statique à tous les utilisateurs, il sera plus efficace si nous savons pourquoi une personne en particulier développe des cybermalaises et donnons à cette personne la bonne atténuation dont elle a besoin. L’IA explicable peut nous aider à le faire sans entraver le expérience utilisateur. »

En plus de voir ses propres étudiants vivre des cybermalaises, Hoque a remarqué des approches académiques et industrielles pour identifier les cybermalaises au cours des cinq à sept dernières années, souvent axées sur des techniques basées sur les données telles que l’apprentissage automatique (ML) et l’apprentissage en profondeur (DL).

« Ces approches sont souvent des » boîtes noires « et, par conséquent, elles manquent d’explicabilité », a déclaré Hoque. « J’ai également réalisé que l’explicabilité des modèles de cybermalaises DL peut considérablement améliorer la compréhension du modèle et donner un aperçu de pourquoi et comment ces modèles d’IA sont arrivés à une décision spécifique. De plus, en identifiant et en comprenant quels types de caractéristiques importantes pourraient conduire au cybermalaise, nous pouvons aider les concepteurs à développer des modèles de détection des cybermalaises plus efficaces. »

Hoque a déclaré que l’IA explicable peut également aider les développeurs de logiciels à identifier les fonctionnalités les plus importantes nécessaires pour optimiser le modèle permettant d’enseigner à l’IA comment identifier une personne souffrant de cybermalaises. Ceci est particulièrement important pour les utilisateurs portant des casques VR autonomes.

Cette recherche a récemment été présentée lors de trois conférences pour la recherche AR/VR :

  • « LiteVR : Interpretable and Lightweight Cybersickness Detection using Explainable AI » a été présenté à la conférence IEEE Virtual Reality du 25 au 29 mars 2023.
  • « VR-LENS: Super Learning-based Cybersickness Detection and Explainable AI-Guided Deployment in Virtual Reality » a été présenté à la conférence ACM sur les interfaces utilisateur intelligentes du 27 au 31 mars 2023.
  • « TruVR : Trustworthy Cybersickness Detection using Explainable Machine Learning » a été présenté lors de la conférence du Symposium international sur la réalité mixte et augmentée (ISMAR) du 17 au 21 octobre 2022.

« J’ai parlé et travaillé avec différents groupes de personnes et différents pays, et cela m’a vraiment aidé à regarder le même problème mais sous des angles différents », a déclaré Hoque. « Je pense qu’il est vraiment important pour tout chercheur de ne pas examiner un problème d’un seul point de vue, mais de plusieurs points de vue. »