Apprendre à oublier : une arme dans l’arsenal contre l’IA nuisible

Avec un jeu télévisé comme guide, un chercheur utilise l'IA pour prédire la tromperie

À l’aide des données d’un jeu télévisé de 2002, un chercheur de la Virginia Commonwealth University a appris à un ordinateur comment savoir si vous mentez.

« Les comportements humains sont une riche source de tromperie et d'indices de confiance », a déclaré Xunyu Chen, professeur adjoint au département des systèmes d'information de l'école de commerce de VCU. « En utilisant [artificial intelligence methods]comme l'apprentissage automatique et l'apprentissage profond, peuvent mieux exploiter ces sources d'informations pour la prise de décision.

Dans l'un des premiers articles qui étudient quantitativement la tromperie et la confiance à enjeux élevés, « Confiance et tromperie à enjeux élevés : preuves issues de l'ensemble de données « Ami ou ennemi » » est paru dans un numéro récent de Systèmes d'aide à la décision—Chen et son équipe utilisent un nouvel ensemble de données dérivé d'un jeu télévisé américain, « Friend or Foe? » qui est basé sur le dilemme du prisonnier. Cette théorie des jeux explore comment deux personnes pourraient bénéficier d’une coopération, difficile à coordonner, ou souffrir de son échec.

Les expériences en laboratoire couramment utilisées pour étudier la confiance et la tromperie présentent des limites en termes de réalisme et de généralisabilité. Par rapport aux cas fictifs à faibles enjeux, la tromperie à enjeux élevés trouvée dans les jeux télévisés nécessite de plus grandes ressources cognitives pour la gestion comportementale. En outre, le gain ou la punition important associé à une décision à enjeux élevés peut également entraîner une variation émotionnelle et comportementale plus forte des signaux tels que les fluctuations faciales, verbales et de mouvement.

« Nous avons trouvé des indicateurs comportementaux multimodaux de tromperie et de confiance dans des scénarios de prise de décision à enjeux élevés, qui pourraient être utilisés pour prédire la tromperie avec une grande précision », a déclaré Chen. Il appelle un tel prédicteur un détecteur de tromperie automatisé.

Cette recherche étend la compréhension aux comportements de tromperie et de confiance qui pourraient entraîner des conséquences substantielles d’un point de vue scientifique et quantitatif. Les chercheurs et les praticiens peuvent utiliser les résultats de ces recherches pour analyser les comportements humains dans des scénarios à enjeux élevés, tels que les débats présidentiels, les négociations commerciales et les procès judiciaires, afin de prédire la tromperie et la protection de leurs intérêts personnels.