Enquête sur les biais des ensembles de données dans les théories des décisions économiques apprises par machine
Des chercheurs du Centre des sciences cognitives de la TU Darmstadt et de hessian.AI ont étudié les propriétés des théories économiques comportementales apprises automatiquement par l’IA.
Dans notre vie quotidienne, nous sommes constamment confrontés à des choix risqués. Les économistes, les psychologues et les spécialistes des sciences cognitives étudient depuis longtemps en laboratoire les choix risqués des individus avec des paris équivalents, car les jeux de hasard comportent les trois composantes qui définissent les choix risqués : il existe un choix entre des actions alternatives, les résultats des choix ont une certaine probabilité et les résultats ont une certaine probabilité. récompenses.
Préféreriez-vous choisir 100 $ avec certitude ou obtenir un billet de loterie, où les chances de gagner 150 $ sont de 75 %, mais dans les 25 % restants, vous n’obtenez rien ?
Les résultats de telles expériences ont montré de manière constante que les gens s’écartent systématiquement du choix mathématique optimal, c’est-à-dire qu’ils perdent de l’argent. Dans le jeu de hasard mentionné ci-dessus, par exemple, la deuxième option a une valeur attendue plus élevée, mais lorsqu’on leur demande, de nombreuses personnes préfèrent la première option.
En raison de l’impact sérieux de ces erreurs de décision sur la vie des individus et sur l’économie dans son ensemble, prédire comment les humains prennent des décisions sous-optimales présente un intérêt scientifique constant. Les travaux de Daniel Kahneman et d’Amos Tversky, qui ont déclaré étudier « la stupidité naturelle plutôt que l’intelligence artificielle », ont conduit à une meilleure description de la prise de décision humaine grâce à la théorie des perspectives cumulatives et à l’attribution du prix Nobel de sciences économiques en 2002.
Cependant, il existe encore de nombreuses anomalies et contextes dans lesquels les décisions ne peuvent pas être correctement prédites. Au-delà de prédire les décisions des gens, il est encore plus difficile de leur trouver des explications. Cela inclut des idées marquantes telles que celles de Gerd Gigerenzer selon lesquelles les décisions humaines sont basées sur des raccourcis cognitifs, appelés heuristiques.
Dans une étude récente publiée dans Scienceune équipe de recherche de l’Université de Princeton, aux États-Unis, a utilisé l’intelligence artificielle pour mieux comprendre les décisions humaines liées aux paris risqués.
L’idée est que si les réseaux de neurones profonds parviennent de plus en plus à prédire les données, ils pourraient peut-être aussi mieux prédire les décisions humaines que les théories économiques comportementales. Cependant, ces réseaux neuronaux nécessitent d’énormes quantités de données pour être entraînés. Pour cette raison, un ensemble de données contenant des décisions humaines sur plus de 13 000 paris a été collecté dans le cadre de l’étude.
Lors de la prévision des décisions de jeu des personnes sur la base de cet ensemble de données, les réseaux neuronaux les moins contraints par les hypothèses théoriques ont obtenu les meilleurs résultats. Peterson et coll. a ensuite dérivé une « théorie apprise par machine de la prise de décision économique » – un résumé interprétable du comportement des réseaux neuronaux.
Dans une nouvelle publication dans la revue Comportement humaindes chercheurs du projet LOEWE « WhiteBox » de la TU Darmstadt ont systématiquement étudié les prédictions résultant de la combinaison de différents modèles d’apprentissage automatique avec différents ensembles de données de décision.
La publication, issue d’un projet de cours du programme de maîtrise en sciences cognitives, a révélé des différences frappantes dans la prédiction des décisions humaines : alors que certains réseaux neuronaux étaient plus précis pour prédire les décisions à partir de l’ensemble de données de l’étude 2021, ils n’ont pas réussi à prédire le comportement humain à partir de petites expériences psychologiques. Il s’agit d’un exemple typique de la façon dont les biais dans les ensembles de données peuvent conduire à des effets d’interaction entre les modèles et les ensembles de données, de sorte que les résultats d’un ensemble de données ne soient pas transférés à un autre.
À partir de ces observations, les chercheurs ont pu développer un modèle génératif cognitif qui explique quantitativement les différences entre les décisions réelles issues des ensembles de données et les prédictions des modèles d’IA avec les résultats économiques comportementaux classiques de l’incertitude des décisions humaines.
« Les réseaux de neurones peuvent surpasser toutes les propositions des théoriciens humains en termes d’erreurs de prédiction sur un ensemble de données, mais cela ne garantit pas que cela soit transféré à d’autres ensembles de données sur les paris humains, ou même sur des décisions quotidiennes plus naturalistes », explique le professeur Constantin Rothkopf du Centre. pour les sciences cognitives à TU.
L’étude souligne que les sciences cognitives ne peuvent toujours pas être facilement automatisées par l’intelligence artificielle et qu’une combinaison minutieuse de raisonnement théorique, d’apprentissage automatique et d’analyse de données est nécessaire pour comprendre et expliquer pourquoi les décisions humaines s’écartent de l’optimum mathématique.