Un cadre qui pourrait améliorer l'intelligence sociale des aides à domicile

Un cadre qui pourrait améliorer l’intelligence sociale des aides à domicile

Illustration du comportement souhaité d’un assistant IA socialement intelligent qui est capable de déduire conjointement les objectifs des humains et d’aider les humains à atteindre les objectifs plus rapidement sans qu’on leur dise explicitement quoi faire. L’agent n’a initialement aucune connaissance de l’objectif de l’humain et choisirait donc d’observer. Au fur et à mesure qu’il observe plus d’actions humaines, il devient plus confiant dans son inférence d’objectif, adaptant sa stratégie d’aide. Ici, lorsque l’agent voit l’humain marcher vers l’armoire, il prédit que l’objectif implique des assiettes et décide d’aider en remettant ces assiettes à l’humain. Au fur et à mesure qu’il devient clair que l’objectif est de mettre en place la table à manger, cela aide avec des stratégies plus spécifiques, telles que mettre les assiettes sur la table à manger. Crédit : Puig et al.

Les agents d’intelligence artificielle et les robots existants n’aident les humains que lorsqu’ils sont explicitement invités à le faire. En d’autres termes, ils ne déterminent pas intuitivement comment ils pourraient être utiles à un moment donné, mais attendent plutôt que les humains leur disent en quoi ils ont besoin d’aide.

Des chercheurs du Massachusetts Institute of Technology (MIT) ont récemment développé NOPA (assistance probabiliste en ligne guidée par des neurones), un cadre qui pourrait permettre à des agents artificiels de déterminer de manière autonome comment aider au mieux les utilisateurs humains à différents moments. Ce cadre, présenté dans un article prépublié sur arXiv et qui sera présenté à l’ICRA 2023, pourrait permettre le développement de robots et d’assistants à domicile plus réactifs et socialement intelligents.

« Nous étions intéressés par l’étude d’agents qui pourraient aider les humains à effectuer des tâches dans un environnement domestique simulé, afin qu’il puisse éventuellement s’agir de robots aidant les gens chez eux », a déclaré Xavier Puig, l’un des chercheurs qui a mené l’étude, à Tech Xplore. « Pour y parvenir, l’une des grandes questions est de savoir comment spécifier à ces agents pour quelle tâche nous aimerions qu’ils nous aident. Une option consiste à spécifier cette tâche via une description de langage ou une démonstration, mais cela demande un travail supplémentaire de la part du utilisateur humain. »

L’objectif primordial des travaux récents de Puig et de ses collègues était de créer des agents alimentés par l’IA qui peuvent simultanément déduire quelle tâche un utilisateur humain tente d’accomplir et les aider de manière appropriée. Ils se réfèrent à ce problème en tant que « surveillance et aide en ligne ».

Résoudre ce problème de manière fiable peut être difficile. La raison principale en est que si un robot commence à aider un humain trop tôt, il pourrait ne pas reconnaître ce que l’humain essaie d’accomplir globalement, et sa contribution à la tâche pourrait donc être contre-productive.

« Par exemple, si un utilisateur humain est dans la cuisine, le robot peut essayer de l’aider à ranger la vaisselle dans l’armoire, tandis que l’humain veut mettre en place la table », a expliqué Puig. « Cependant, si l’agent attend trop longtemps pour comprendre quelles sont les intentions de l’humain, il peut être trop tard pour qu’il aide. Dans le cas décrit ci-dessus, notre cadre permettrait à l’agent robotique d’aider l’humain en remettant la vaisselle, peu importe à quoi servent ces plats. »

Essentiellement, au lieu de prédire un objectif unique qu’un utilisateur humain essaie d’atteindre, le cadre créé par les chercheurs permet à un agent de prédire une série d’objectifs. Cela permet à son tour à un robot ou à un assistant IA d’aider de manière cohérente avec ces objectifs, sans attendre trop longtemps avant d’intervenir.

« Les assistants domestiques courants tels qu’Alexa n’aideront que sur demande », a déclaré Tianmin Shu, un autre chercheur qui a mené l’étude, à Tech Xplore. « Cependant, les humains peuvent s’entraider de manière plus sophistiquée. Par exemple, lorsque vous voyez vos partenaires rentrer de l’épicerie avec des sacs lourds, vous pouvez les aider directement avec ces sacs. Si vous attendez que votre partenaire vous demande de l’aider , alors votre partenaire ne serait probablement pas content. »

Il y a environ deux décennies, chercheurs à l’Institut Max Planck d’anthropologie évolutive ont montré que la tendance innée des humains à aider les autres dans le besoin se développe tôt. Dans une série d’expériences, des enfants aussi jeunes que 18 mois ont pu déduire avec précision les intentions simples des autres et agir pour les aider à atteindre leurs objectifs.

Un cadre qui pourrait améliorer l'intelligence sociale des aides à domicile

L’émergence de stratégies d’aide à partir de la méthode de l’équipe. En haut, l’agent assistant (Bleu) décide que remettre des objets à l’humain (Orange) est la meilleure stratégie. En bas, l’agent d’assistance ramène les objets à leur emplacement d’origine après avoir observé les actions humaines, en gardant le kitch. Crédit : Puig et al.

En utilisant leur cadre, Puig, Shu et leurs collègues ont voulu doter les assistants à domicile de ces mêmes « capacités d’aide », leur permettant de déduire automatiquement ce que les humains essaient de faire simplement en les observant, puis d’agir de manière appropriée. De cette façon, les humains n’auraient plus besoin de donner constamment des instructions aux robots et pourraient simplement se concentrer sur la tâche à accomplir.

« NOPA est une méthode pour déduire simultanément des objectifs humains et les aider à les atteindre », ont expliqué Puig et Shu. « Pour déduire les objectifs, nous utilisons d’abord un réseau de neurones qui propose plusieurs objectifs en fonction de ce que l’humain a fait. Nous évaluons ensuite ces objectifs à l’aide d’un type de méthode de raisonnement appelé planification inverse. L’idée est que pour chaque objectif, nous pouvons imaginer quelles seraient les actions rationnelles prises par l’humain pour atteindre cet objectif ; et si les actions imaginées sont incompatibles avec les actions observées, nous rejetons cette proposition d’objectif. »

Essentiellement, le cadre NOPA maintient constamment un ensemble d’objectifs possibles qu’un humain pourrait essayer d’atteindre, mettant constamment à jour cet ensemble à mesure que de nouvelles actions humaines sont observées. À différents moments, un planificateur aidant recherche alors un sous-objectif commun qui serait un pas en avant dans la résolution de tous les objectifs actuels possibles. Enfin, il recherche des actions spécifiques qui aideraient à atteindre ce sous-objectif.

« Par exemple, les objectifs pourraient être de mettre des pommes dans le réfrigérateur ou de mettre des pommes sur une table », ont déclaré Puig et Shu. « Au lieu de deviner au hasard un emplacement cible et d’y mettre des pommes, notre assistant IA ramasserait les pommes et les livrerait à l’humain. De cette façon, nous pouvons éviter de gâcher l’environnement en aidant avec le mauvais objectif, tout en gagnant du temps et de l’énergie pour l’humain. »

Jusqu’à présent, Puig, Shu et leurs collègues ont évalué leur cadre dans un environnement simulé. Alors qu’ils s’attendaient à ce que cela permette aux agents d’aider les utilisateurs humains même lorsque leurs objectifs n’étaient pas clairs, ils n’avaient pas anticipé certains des comportements intéressants qu’ils ont observés dans les simulations.

« Tout d’abord, nous avons constaté que les agents étaient capables de corriger leurs comportements pour minimiser les perturbations dans la maison », a expliqué Puig. « Par exemple, s’ils choisissaient un objet et découvraient plus tard que cet objet n’était pas lié à la tâche, ils remettraient l’objet à l’endroit d’origine pour garder la maison en ordre. Deuxièmement, lorsqu’ils n’étaient pas sûrs d’un objectif, les agents choisiraient des actions. qui étaient généralement utiles, quel que soit l’objectif humain, comme remettre une assiette à l’humain au lieu de s’engager à l’apporter sur une table ou dans une armoire de rangement. »

Dans les simulations, le cadre créé par Puig, Shu et leurs collègues a obtenu des résultats très prometteurs. Même si l’équipe a initialement réglé les agents d’assistance pour aider les modèles représentant les utilisateurs humains (pour économiser le temps et les coûts des tests dans le monde réel), les agents se sont avérés atteindre des performances similaires lorsqu’ils interagissent avec de vrais humains.

À l’avenir, le cadre NOPA pourrait contribuer à améliorer les capacités des assistants à domicile existants et nouvellement développés. De plus, cela pourrait potentiellement inspirer la création de méthodes similaires pour créer une IA plus intuitive et socialement adaptée.

« Jusqu’à présent, nous n’avons évalué la méthode que dans des simulations incarnées », a ajouté Shu. « Nous aimerions maintenant appliquer la méthode à de vrais robots dans de vraies maisons. De plus, nous aimerions intégrer la communication verbale dans le cadre, afin que l’assistant IA puisse mieux aider les humains. »