Une nouvelle recherche suggère que les agents d’intelligence artificielle peuvent développer une confiance similaire à celle des humains

Une nouvelle recherche suggère que les agents d’intelligence artificielle peuvent développer une confiance similaire à celle des humains

L’intelligence artificielle (IA) a fait de grands progrès ces dernières années, voire ces derniers mois. Nouvelle recherche dans la revue Science du management découvre que les agents d’IA peuvent instaurer la confiance, comme celle des humains.

« La confiance humaine et le comportement digne de confiance de l’IA peuvent émerger d’un pur processus d’apprentissage par essais et erreurs, et les conditions permettant à l’IA de développer la confiance sont similaires à celles qui permettent aux êtres humains de développer la confiance », déclare Yan (Diana) Wu de Université d’État de San José. « Découvrir la capacité de l’IA à imiter le comportement de confiance humain uniquement par le biais de processus d’auto-apprentissage reflète les conditions favorisant la confiance envers les humains. »

Wu, avec les co-auteurs Jason Xianghua Wu de l’Université de Nouvelle-Galles du Sud, UNSW Business School, Kay Yut Chen de l’Université du Texas à Arlington et Lei Hua de l’Université du Texas à Tyler, affirment qu’il ne s’agit pas seulement d’apprendre à l’IA à jouer à un jeu; il s’agit d’un pas important vers la création de systèmes intelligents capables de cultiver l’intelligence sociale et la confiance grâce à une pure interaction d’auto-apprentissage.

L’article intitulé « Building Socially Intelligent AI Systems: Evidence from the Trust Game using Artificial Agents with Deep Learning » constitue une première étape vers la création de systèmes d’aide à la décision multi-agents dans lesquels les agents artificiels en interaction peuvent exploiter l’intelligence sociale pour obtenir de meilleurs résultats. .

« Notre recherche innove en démontrant que les agents d’IA peuvent développer de manière autonome des stratégies de confiance et de fiabilité semblables à celles des humains dans des scénarios d’échange économique », explique Chen.

Les auteurs expliquent que comparer les agents d’IA aux décideurs humains pourrait aider à approfondir les connaissances sur les comportements de l’IA dans différents contextes sociaux.

« Étant donné que les comportements sociaux des agents d’IA peuvent être déterminés de manière endogène grâce à l’apprentissage interactif, cela peut également nous fournir un nouvel outil pour explorer les comportements d’apprentissage en réponse au besoin de coopération dans des scénarios de prise de décision spécifiques », conclut Hua.