Apprendre à des robots à apprendre à d'autres robots

L’étude trouve le scepticisme envers l’IA dans les rôles de décision morale

Les psychologues avertissent que le manque perçu par l’IA de l’IA et une véritable compréhension peut limiter son acceptation pour prendre des décisions morales à enjeux plus élevés.

Les conseillers moraux artificiels (AMAS) sont des systèmes basés sur l’intelligence artificielle (IA) qui commencent à être conçus pour aider les humains à prendre des décisions morales basées sur des théories éthiques, des principes ou des directives établis. Bien que les prototypes soient en cours d’élaboration, les AMA actuellement ne sont pas encore utilisés pour offrir des recommandations cohérentes et sans biais et des conseils moraux rationnels. Alors que les machines alimentées par l’intelligence artificielle augmentent dans leurs capacités technologiques et se déplacent dans le domaine moral, il est essentiel que nous comprenions comment les gens pensent à de tels conseillers moraux artificiels.

Les recherches menées par l’École de psychologie de l’Université de Kent ont exploré comment les gens percevraient ces conseillers et s’ils faisaient confiance à leur jugement, par rapport aux conseillers humains. Il a constaté que si l’intelligence artificielle pourrait avoir le potentiel d’offrir des conseils impartiaux et rationnels, les gens ne lui font toujours pas entièrement confiance pour prendre des décisions éthiques sur les dilemmes moraux.

Publié dans la revue Cognitionla recherche montre que les gens ont une aversion significative pour les AMA (contre les humains) donnant des conseils moraux même lorsque les conseils donnés sont identiques, tout en montrant que cela est particulièrement le cas lorsque les conseillers – humains et l’IA – ont des conseils sur la base de l’utilité Principes (actions qui pourraient avoir un impact positif sur la majorité). Les conseillers qui ont donné des conseils non utilitaires (par exemple, adhérant aux règles morales plutôt que de maximiser les résultats) étaient plus fiables, en particulier dans les dilemmes impliquant un préjudice direct. Cela suggère que les gens apprécient les conseillers – l’humain ou l’IA – qui s’alignent sur les principes qui priorisent les individus sur les résultats abstraits.

Même lorsque les participants étaient d’accord avec la décision de l’AMA, ils prévoyaient toujours en désaccord avec l’IA à l’avenir, indiquant un scepticisme inhérent.

Le Dr Jim Everett a dirigé la recherche à Kent, aux côtés du Dr Simon Myers à l’Université de Warwick.

Le Dr Everett a déclaré: « La confiance dans l’IA morale n’est pas seulement une question de précision ou de cohérence – il s’agit de s’aligner sur les valeurs et les attentes humaines. Notre recherche met en évidence un défi essentiel pour l’adoption des AMA et comment concevoir des systèmes que les gens font vraiment confiance. En tant que Fonction. La technologie progresse, nous pourrions voir les AMA devenir plus intégrés dans les processus décisionnels, des soins de santé aux systèmes juridiques.