Un informaticien travaille pour aider l'IA à comprendre les émotions humaines

Un informaticien travaille pour aider l’IA à comprendre les émotions humaines

Pour Aniket Bera, un expert en informatique émotionnelle, les appareils intelligents doivent être intelligents pour le cœur, pas seulement pour la tête. Avec des applications qui incluent la thérapie virtuelle, les véhicules autonomes et les robots de sauvetage comme ce chien robot, son laboratoire travaille à l’intersection de l’intelligence artificielle et des émotions et comportements humains. Crédit : Université Purdue / Rebecca McElhoe

Évoquez les relations robot-humain et vous ne manquerez pas d’évoquer des images de célèbres robots futuristes, du Terminator à C-3PO. Mais, en fait, l’invasion des robots a déjà commencé. Les appareils et les programmes, y compris les assistants vocaux numériques, le texte prédictif et les appareils électroménagers sont intelligents et deviennent de plus en plus intelligents. Cependant, il ne suffit pas que les ordinateurs soient tous des cerveaux et non des cœurs.

L’informaticien Aniket Bera, professeur agrégé d’informatique au Collège des sciences de l’Université Purdue, s’efforce de faire en sorte que l’avenir soit un peu plus « Big Hero 6 » et un peu moins Skynet. Des chatbots thérapeutiques aux robots assistants intuitifs, en passant par les drones de recherche et de sauvetage intelligents, la modélisation informatique et les graphiques, son laboratoire travaille à optimiser les ordinateurs pour un monde humain.

« Le but de mes recherches est d’utiliser l’IA pour améliorer la vie humaine », a déclaré Bera. « Les humains, le comportement humain et les émotions humaines sont au centre de tout ce que je fais. »

Bera est une experte dans le domaine interdisciplinaire de l’informatique affective : elle utilise l’apprentissage automatique et d’autres méthodes informatiques pour programmer des programmes d’intelligence artificielle afin de mieux intégrer et comprendre le comportement et les émotions humaines.

Intelligence artificielle (émotionnelle)

Les ordinateurs sont des outils, et ils ne sont aussi bons que nous les programmons pour qu’ils le soient. Lorsque vous demandez à Siri de jouer une chanson ou à Alexa de régler une minuterie, ils répondent au contexte de vos mots. Mais les humains ne communiquent pas uniquement avec des mots : le ton de la voix, le contexte, la posture et les gestes jouent tous un rôle monumental dans la communication humaine.

« Quand un ami te demande comment tu vas, tu peux dire : ‘Je vais bien !’ d’un ton optimiste, et cela signifie quelque chose de complètement différent que si vous dites « Je vais bien », comme Bourriquet », a déclaré Bera. « Les ordinateurs prêtent généralement attention au contenu et ignorent le contexte. »

Cette littéralité convient aux appareils qui essaient simplement de vous aider dans des tâches banales. Cependant, si vous utilisez l’IA à des fins plus complexes, les appareils ont besoin d’un peu plus des perspectives du capitaine Kirk et un peu moins de celles de Spock. Bera utilise son expertise en apprentissage automatique pour programmer des appareils afin d’intégrer une compréhension des signaux non verbaux et de la communication.

« Nous essayons de construire des modèles et des systèmes d’IA plus humains et plus aptes à interagir avec les humains », a déclaré Bera. « Si nous pouvons maximiser la capacité de l’IA à interpréter et à interagir avec les humains, nous pouvons aider plus de personnes plus efficacement. »

Bera et son équipe travaillent sur une approche multisensorielle de cette IA « émotionnelle », qui consiste à observer et analyser les expressions faciales, le langage corporel, les mouvements et gestes involontaires et inconscients, les mouvements oculaires, les schémas de parole, les intonations et différents paramètres linguistiques et culturels. La formation de l’IA sur ces types d’entrées améliore non seulement la communication, mais elle équipe également mieux l’IA pour répondre aux humains d’une manière plus appropriée et même émotive.

Bera explique que les États-Unis et la majeure partie du monde connaissent une pénurie de professionnels de la santé mentale. L’accès à la santé mentale peut être difficile à trouver et les séances peuvent être difficiles à payer ou à intégrer dans l’horaire chargé d’une personne. Bera considère les programmes d’intelligence artificielle émotionnellement intelligents comme des outils susceptibles de combler le fossé, et il travaille avec des écoles de médecine et des hôpitaux pour concrétiser ces idées.

Les programmes de thérapie basés sur l’IA pourraient aider à évaluer la santé mentale et émotionnelle d’une personne et à l’orienter vers les bonnes ressources, ainsi qu’à suggérer quelques stratégies initiales pour l’aider. Parler à une IA pour certaines personnes, en particulier celles qui sont neurodivergentes ou qui souffrent d’anxiété sociale, peut être moins important et plus facile que de parler à un humain. Dans le même temps, avoir un assistant IA pour prendre note de la communication non verbale et des schémas d’élocution d’une personne peut aider les thérapeutes humains à suivre les progrès de leurs patients entre les séances et leur permettre de fournir les meilleurs soins possibles.

Vous devez avoir du cœur : un informaticien travaille pour aider l'IA à comprendre les émotions humaines

« L’idée est de construire un avenir où les robots peuvent être des partenaires, peuvent aider les humains à accomplir des objectifs et des tâches de manière plus sûre, plus efficace et plus efficace », explique Aniket Bera, expert en informatique affective. « En informatique, les plus gros problèmes sont souvent les humains. Ce que fait notre recherche, c’est remettre l’humain dans la résolution de problèmes pour construire un monde meilleur. Crédit : Université Purdue / Rebecca McElhoe

Naviguer dans les environnements émotionnels

Un autre domaine dans lequel les programmes d’IA permettent de mieux saisir les émotions humaines est celui où les robots partagent l’espace physique avec les humains.

Les voitures autonomes peuvent comprendre et interpréter les marqueurs peints sur la chaussée, mais elles ne peuvent pas identifier les piétons humains et évaluer ce qu’ils pourraient faire en fonction de leur mouvement.

Un enfant confus, un adolescent en colère ou un adulte paniqué sont autant de visions qui pourraient inciter le conducteur d’un véhicule à ralentir et à être plus prudent qu’il ne le serait normalement. Le conducteur humain sait intuitivement qu’il s’agit de personnes susceptibles de faire des mouvements irrationnels ou soudains et de les exposer à un risque de collision avec un véhicule.

Pour que les robots soient capables de tirer la même conclusion en utilisant des signaux non verbaux et posturaux, cela pourrait aider les véhicules autonomes et autres robots autonomes à naviguer de manière plus sûre dans les environnements physiques. Bera travaille avec des collaborateurs sur la programmation du cerveau d’un robot à roues appelé ProxEmo qui peut lire le langage corporel des humains pour évaluer leurs émotions.

À l’avenir, des protocoles similaires pourraient aider d’autres types de robots à évaluer quels individus dans une foule sont confus ou perdus et les aider rapidement et efficacement.

Véhicules de sauvetage

Certains environnements physiques – les scènes de catastrophes naturelles, les champs de bataille et les environnements périlleux – sont trop dangereux pour les humains. Historiquement, dans ces cas, les humains ont exploité des partenaires non humains, y compris des canaris de mine de charbon, des chiens de sauvetage et même des rats renifleurs de bombes, pour aller là où aucun humain ne peut le faire.

Bien sûr, ce serait encore mieux si nous ne pouvions pas risquer la moindre vie, pas seulement épargner les vies humaines. Bera et son équipe travaillent avec des modèles de drones disponibles dans le commerce, comme un « chien » robot à quatre pattes, pour créer des rovers autonomes qui peuvent, par exemple, rechercher des survivants après un tremblement de terre.

« La plupart des gens qui meurent dans le séisme ne meurent pas dans le séisme proprement dit », a déclaré Bera. « Ils meurent d’être piégés dans les décombres ; ils meurent parce que les premiers intervenants n’ont pas pu les trouver assez rapidement. Un drone peut scanner l’environnement et ramper à travers les débris pour détecter des signes de vie, y compris les battements de cœur, la chaleur corporelle et le dioxyde de carbone, bien plus encore. en toute sécurité que même les chiens ne le peuvent. De plus, il n’y a aucun risque pour un chien vivant si nous envoyons le chien robot.

Comprendre comment les humains se déplacent peut aider les robots à naviguer sur les scènes de catastrophe, à rester à l’écart des premiers intervenants humains et à localiser, atteindre et sauver les survivants plus efficacement que les humains ou les chiens ne pourraient le faire seuls. Pensez à Wall-E et EVE travaillant ensemble pour restaurer la planète Terre saccagée.

« L’idée est de construire un avenir où les robots peuvent être des partenaires, peuvent aider les humains à accomplir des objectifs et des tâches de manière plus sûre, plus efficace et plus efficace », a déclaré Bera. « En informatique, les plus gros problèmes sont souvent les humains. Ce que fait notre recherche, c’est remettre l’humain dans la résolution de problèmes pour construire un monde meilleur. »

Fourni par l’Université Purdue