L’intelligence artificielle partage notre biais de confiance, révèle une étude
Le biais de confiance positif prononcé, qui est un trait caractéristique et apparemment irrationnel de la prise de décision humaine, a été reproduit et disséqué à l’aide d’un modèle d’intelligence artificielle (IA). Le résultat troublant, publié dans Communications naturelles par une équipe dirigée par RIKEN, révèle que notre sentiment exagéré de confiance pourrait provenir d’indices d’observation subtils.
Lorsque nous apercevons quelque chose de familier, nous sommes souvent capables de conclure instantanément et en toute confiance à une correspondance avec cet objet familier, même si l’équilibre des preuves ne soutient pas un niveau de confiance aussi élevé. Cette dissociation entre la prise de décision et le niveau de confiance a longtemps laissé les chercheurs perplexes, car elle suggère que même si nous sommes capables de prendre des décisions très rationnelles, notre sentiment de confiance dans nos décisions peut être tout à fait irrationnel.
« Il y a une tension entre la théorie, qui suppose carrément que les humains sont rationnels, et les données empiriques, qui montrent clairement que ce n’est pas toujours le cas », note Hakwan Lau du RIKEN Center for Brain Science.
Cela se produit généralement lorsque l’image n’est pas claire ou est bruyante. Mathématiquement, le bruit d’une image peut être calculé à partir de son écart par rapport à l’image claire par une métrique appelée rapport signal/bruit.
Mais c’est là que les choses commencent à devenir bizarres. « Si je rends une image à la fois plus saillante et plus bruyante, tout en gardant le rapport signal/bruit global identique, nous devenons en quelque sorte plus confiants et croyons que nous savons ce que nous voyons, même si nous ne voyons pas mieux. « , dit Lau. « Il s’avère que la structure du bruit, qui est généralement considérée comme aléatoire, compte en réalité beaucoup. »
Maintenant, Lau et ses collègues ont étudié l’effet de différents types de bruit sur la confiance dans les décisions à l’aide d’un modèle d’IA qui rendait spécifiquement compte de la confiance.
« On se demande toujours ce que fait un modèle d’IA », explique Lau. « Mais l’avantage d’un modèle d’IA est qu’une fois qu’il a appris, contrairement au cerveau humain, nous pouvons « disséquer » le modèle pour mieux le comprendre. »
Étonnamment, les modèles d’IA ont montré exactement les mêmes biais de confiance que les humains. Cela semble être exactement ce qu’il est censé faire, comme le souligne Lau.
« Le modèle est rationnel dans le sens où il apprend de la structure du bruit des images naturelles, qui est différente du type de bruit standard supposé dans les modèles de traitement du signal », explique Lau. « C’est l’apprentissage des propriétés statistiques des images naturelles qui conduit ces modèles – et probablement notre cerveau aussi – à avoir ces biais apparents. »