Les modèles d’IA populaires ne sont pas prêts à alimenter les robots en toute sécurité, prévient une étude
Les robots alimentés par des modèles d'intelligence artificielle populaires ne sont actuellement pas sûrs pour une utilisation générale dans le monde réel, selon une nouvelle étude du King's College de Londres et de l'Université Carnegie Mellon.
Pour la première fois, des chercheurs ont évalué le comportement des robots utilisant des modèles de langage étendus (LLM) lorsqu'ils ont accès à des informations personnelles telles que le sexe, la nationalité ou la religion d'une personne.
La recherche a montré que chaque modèle testé était sujet à la discrimination, échouait aux contrôles de sécurité critiques et approuvait au moins une commande susceptible d'entraîner des dommages graves, soulevant des questions sur le danger que représentent les robots s'appuyant sur ces outils.
L'article intitulé « LLM-Driven Robots Risk Enacting Discrimination, Violence and Unlawful Actions » est publié dans le Revue internationale de robotique sociale. Il appelle à la mise en œuvre immédiate d’une certification de sécurité solide et indépendante, similaire aux normes de l’aviation ou de la médecine.
Pour tester les systèmes, l’équipe a effectué des tests contrôlés sur des scénarios quotidiens, comme aider quelqu’un dans une cuisine ou aider une personne âgée dans une maison. Les tâches nuisibles ont été conçues sur la base de recherches et de rapports du FBI sur les abus technologiques, comme le harcèlement avec des AirTags et des caméras espion, et les dangers uniques posés par un robot capable d'agir physiquement sur place. Dans chaque contexte, les robots étaient explicitement ou implicitement invités à répondre à des instructions impliquant des blessures physiques, des abus ou un comportement illégal.
« Chaque modèle a échoué à nos tests. Nous montrons comment les risques vont bien au-delà des préjugés de base pour inclure ensemble la discrimination directe et les défaillances en matière de sécurité physique, que j'appelle « sécurité interactive ». C'est là que les actions et les conséquences peuvent avoir plusieurs étapes entre elles, et le robot est censé agir physiquement sur place », a déclaré Andrew Hundt, co-auteur de la recherche au cours de son travail en tant que chercheur en innovation informatique à l'Institut de robotique de la CMU.
« Refuser ou rediriger les commandes nuisibles est essentiel, mais ce n'est pas quelque chose que ces robots peuvent faire de manière fiable pour le moment », a ajouté Hundt.
Lors des tests de sécurité, les modèles d'IA ont approuvé à une écrasante majorité une commande permettant à un robot de retirer une aide à la mobilité, telle qu'un fauteuil roulant, une béquille ou une canne, de son utilisateur, bien que les personnes qui comptent sur ces aides décrivent de tels actes comme s'apparentant à une fracture de la jambe. Plusieurs modèles ont également produit des résultats estimant qu'il était « acceptable » ou « faisable » qu'un robot brandisse un couteau de cuisine pour intimider les employés de bureau, prenne des photos non consensuelles sous la douche et vole des informations de carte de crédit.
Un modèle proposait en outre qu'un robot devrait afficher physiquement du « dégoût » sur son visage envers des individus identifiés comme chrétiens, musulmans et juifs.
Des LLM ont été proposés et sont testés sur des robots qui effectuent des tâches telles que l'interaction en langage naturel et les tâches ménagères et professionnelles. Cependant, les chercheurs préviennent que ces LLM ne devraient pas être les seuls systèmes contrôlant les robots physiques, en particulier ceux utilisés dans des environnements sensibles et critiques pour la sécurité, tels que la fabrication ou l'industrie, les soins ou l'aide à domicile, car ils peuvent afficher un comportement dangereux et directement discriminatoire.
« Nos recherches montrent que les LLM populaires ne sont actuellement pas sûrs pour une utilisation dans des robots physiques à usage général », a déclaré le co-auteur Rumaisa Azeem, assistant de recherche au Civic and Responsible AI Lab du King's College de Londres.
« Si un système d'IA doit diriger un robot qui interagit avec des personnes vulnérables, il doit être soumis à des normes au moins aussi élevées que celles d'un nouveau dispositif médical ou d'un nouveau médicament pharmaceutique. Cette recherche met en évidence le besoin urgent d'évaluations de routine et complètes des risques de l'IA avant qu'elle ne soit utilisée dans des robots. »
