Comment donner de l'empathie aux robots basés sur l'IA pour qu'ils ne veuillent pas nous tuer

Comment donner de l’empathie aux robots basés sur l’IA pour qu’ils ne veuillent pas nous tuer

Développer des proxys artificiels pour l’homéostasie, les sentiments et l’empathie. (A) L’agent maintient son intégrité dans un environnement en recherchant des récompenses et en évitant les obstacles nuisibles via des modèles prédictifs d’états futurs, et une approximation de l’affect interne et affiché. (B) L’agent doit ensuite tirer parti de ces modèles pour décoder et prédire les résultats comportementaux et les états affectifs internes des autres agents. Crédit : Leonardo Christov-Moore et Nicco Reggente

Une équipe de spécialistes des sciences sociales, de neurologues et de psychiatres du Brain and Creativity Institute de l’Université de Californie du Sud, en collaboration avec des collègues de l’Institute for Advanced Consciousness Studies, de l’Université de Floride centrale et de la David Geffen School of Medicine de l’UCLA, a publié un article de Viewpoint. dans la revue Robotique scientifique décrivant une nouvelle approche pour donner de l’empathie aux robots. Dans leur article, ils suggèrent que les approches traditionnelles peuvent ne pas fonctionner.

À presque tous les égards, l’introduction de ChatGPT et d’autres applications d’IA similaires a eu un impact sur la société moderne. Ils sont utilisés à des fins très diverses, mais ont fait parler de freiner leur développement de peur qu’ils ne constituent une menace pour l’homme. Pour contrer de tels arguments, certains dans le domaine de l’IA ont suggéré que le moyen d’empêcher le développement d’un tel scénario est simple : donner de l’empathie aux applications. Dans ce nouvel article, les auteurs sont d’accord avec une telle approche, mais diffèrent sur la façon d’imiter une qualité humaine aussi énigmatique dans une machine.

L’approche actuelle pour conférer de l’empathie aux modèles d’IA consiste à leur apprendre à voir comment les humains se comportent dans des scénarios moralement discutables, puis à suivre un tel comportement en conséquence, et en codant en dur certaines règles dans leur machinerie. Mais cette approche, selon les auteurs, néglige le rôle que joue l’auto-préservation dans l’empathie humaine. Si un robot visionne une vidéo d’une personne éprouvant une réaction douloureuse en tombant, par exemple, on peut lui apprendre à imiter une telle réaction comme moyen de se connecter avec la personne blessée, mais ce sera un jeu d’acteur car ce ne sera pas éprouver de l’empathie.

Pour que cela se produise, le robot devrait ressentir le genre de douleur qui peut résulter d’une chute. Et c’est, selon les chercheurs, ce qui doit être fait pour que les robots comprennent pourquoi faire du mal à quelqu’un est mauvais, et non coder une règle dans leurs circuits logiques. Ils ne suggèrent pas que les robots soient programmés pour ressentir une douleur réelle, même si cela pourrait un jour être une option, mais plutôt pour leur faire comprendre que leurs actions pourraient avoir des répercussions négatives. Ils pourraient avoir à affronter la vie sans leur compagnon humain, par exemple, s’ils devaient les tuer. Ou d’être « tués » eux-mêmes à cause de ce qu’ils ont fait. Cela impliquerait, selon eux, de donner aux robots la capacité de souffrir – un moyen efficace d’autodiscipline s’il en est un.