Un système robotique nourrit les personnes à mobilité réduite
Les chercheurs de Cornell ont développé un système d'alimentation robotique qui utilise la vision par ordinateur, l'apprentissage automatique et la détection multimodale pour nourrir en toute sécurité les personnes à mobilité réduite, notamment celles souffrant de lésions médullaires, de paralysie cérébrale et de sclérose en plaques.
« Nourrir des personnes à mobilité réduite avec un robot est difficile, car beaucoup ne peuvent pas se pencher en avant et ont besoin que la nourriture soit placée directement dans leur bouche », a déclaré Tapomayukh « Tapo » Bhattacharjee, professeur adjoint d'informatique au Cornell Ann S. Bowers College. d'informatique et des sciences de l'information et développeur principal derrière le système. « Le défi s'intensifie lorsqu'il s'agit de nourrir des personnes souffrant d'autres problèmes de santé complexes. »
Un article sur le système, « Feel the Bite: Robot-Assisted Inside-Mouth Bite Transfer using Robust Mouth Perception and Physical Interaction-Aware Control », a été présenté lors de la conférence Human Robot Interaction, qui s'est tenue du 11 au 14 mars à Boulder, Colorado. . Il a reçu une mention honorable pour le meilleur article, tandis qu'une démonstration du système d'alimentation robotique plus large de l'équipe de recherche a reçu le prix de la meilleure démonstration.
Leader de la robotique d'assistance, Bhattacharjee et son laboratoire EmPRISE ont passé des années à enseigner aux machines le processus complexe par lequel nous, les humains, nous nourrissons. C'est un défi complexe d'enseigner à une machine, depuis l'identification des aliments dans une assiette, leur ramassage puis leur transfert dans la bouche d'un bénéficiaire de soins.
« Ces 5 derniers centimètres, depuis l'ustensile jusqu'à l'intérieur de la bouche, sont extrêmement difficiles », a déclaré Bhattacharjee.
Certains bénéficiaires de soins peuvent avoir des ouvertures buccales très limitées, mesurant moins de 2 centimètres, tandis que d'autres souffrent de spasmes musculaires involontaires qui peuvent survenir de manière inattendue, même lorsque l'ustensile est dans leur bouche, a déclaré Bhattacharjee. De plus, certains ne peuvent mordre la nourriture qu'à des endroits spécifiques de leur bouche, qu'ils indiquent en poussant l'ustensile avec leur langue, a-t-il expliqué.
« La technologie actuelle ne regarde le visage d'une personne qu'une seule fois et suppose qu'elle restera immobile, ce qui n'est souvent pas le cas et peut être très limitante pour les bénéficiaires de soins », a déclaré Rajat Kumar Jenamani, auteur principal de l'article et doctorant dans le domaine de la l'informatique.
Pour relever ces défis, les chercheurs ont développé et équipé leur robot de deux fonctionnalités essentielles : un suivi de la bouche en temps réel qui s'adapte aux mouvements des utilisateurs, et un mécanisme de réponse dynamique qui permet au robot de détecter la nature des interactions physiques au fur et à mesure qu'elles se produisent et de réagir. de manière appropriée. Cela permet au système de faire la distinction entre les spasmes soudains, les morsures intentionnelles et les tentatives de l'utilisateur de manipuler l'ustensile dans sa bouche, ont indiqué les chercheurs.
Le système robotique a nourri avec succès 13 personnes souffrant de diverses conditions médicales dans le cadre d'une étude d'utilisateurs couvrant trois sites : le laboratoire EmPRISE sur le campus de Cornell Ithaca, un centre médical à New York et le domicile d'un bénéficiaire de soins dans le Connecticut. Les utilisateurs du robot l'ont trouvé sûr et confortable, ont indiqué les chercheurs.
« Il s'agit de l'une des évaluations réelles les plus approfondies d'un système d'alimentation autonome assisté par robot auprès des utilisateurs finaux », a déclaré Bhattacharjee.
Le robot de l'équipe est un bras multi-articulé qui tient à son extrémité un ustensile sur mesure capable de détecter les forces appliquées sur lui. La méthode de suivi de la bouche, formée sur des milliers d'images présentant les poses de tête et les expressions faciales de divers participants, combine les données de deux caméras positionnées au-dessus et au-dessous de l'ustensile.
Cela permet une détection précise de la bouche et surmonte toute obstruction visuelle causée par l'ustensile lui-même, ont indiqué les chercheurs. Ce mécanisme de réponse sensible aux interactions physiques utilise à la fois la détection visuelle et la détection de force pour percevoir la manière dont les utilisateurs interagissent avec le robot, a déclaré Jenamani.
« Nous donnons aux individus les moyens de contrôler un robot de 20 livres avec juste leur langue », a-t-il déclaré.
Il a cité les études d'utilisateurs comme l'aspect le plus gratifiant du projet, soulignant l'impact émotionnel important du robot sur les bénéficiaires de soins et leurs soignants. Au cours d'une séance, les parents d'une fille atteinte de schizencéphalie quadriplégique, une anomalie congénitale rare, ont été témoins de sa réussite à se nourrir grâce au système.
« C'était un moment de véritable émotion ; son père a levé sa casquette pour célébrer et sa mère était presque en larmes », a déclaré Jenamani.
Bien que des travaux supplémentaires soient nécessaires pour explorer l'utilisabilité à long terme du système, ses résultats prometteurs mettent en évidence le potentiel d'amélioration du niveau d'indépendance et de la qualité de vie des bénéficiaires de soins, ont déclaré les chercheurs.
« C'est incroyable », a déclaré Bhattacharjee, « et très, très enrichissant. »