Comment les robots peuvent regagner la confiance des humains après avoir fait des erreurs

Comment les robots peuvent regagner la confiance des humains après avoir fait des erreurs

L’organigramme illustre les résultats et les scores possibles en fonction des cases choisies par le robot et des décisions prises par le participant. Crédit: Ordinateurs dans le comportement humain (2023). DOI : 10.1016/j.chb.2023.107658

Les humains sont moins indulgents envers les robots après de multiples erreurs et la confiance est difficile à regagner, selon une nouvelle étude de l’Université du Michigan.

Semblables à des collègues humains, les robots peuvent commettre des erreurs qui violent la confiance d’un humain en eux. Lorsque des erreurs se produisent, les humains considèrent souvent les robots comme moins dignes de confiance, ce qui finit par diminuer leur confiance en eux.

L’étude examine quatre stratégies qui pourraient réparer et atténuer les impacts négatifs de ces violations de la confiance. Ces stratégies de confiance étaient des excuses, des démentis, des explications et des promesses sur la fiabilité.

Une expérience a été menée où 240 participants ont travaillé avec un collègue robot pour accomplir une tâche, ce qui impliquait parfois que le robot fasse des erreurs. Le robot a violé la confiance du participant et a ensuite fourni une stratégie de réparation particulière.

Les résultats ont indiqué qu’après trois erreurs, aucune des stratégies de réparation n’a jamais entièrement réparé la fiabilité.

« À la troisième violation, les stratégies utilisées par le robot pour réparer complètement la méfiance ne se sont jamais concrétisées », a déclaré Connor Esterwood, chercheur à l’UM School of Information et auteur principal de l’étude.

Esterwood et le co-auteur Robert Lionel, professeur d’information, ont également noté que cette recherche introduit également des théories sur le pardon, l’oubli, l’information et la désinformation.

Les résultats de l’étude ont deux implications. Esterwood a déclaré que les chercheurs doivent développer des stratégies de réparation plus efficaces pour aider les robots à mieux réparer la confiance après ces erreurs. De plus, les robots doivent être sûrs qu’ils ont maîtrisé une nouvelle tâche avant de tenter de restaurer la confiance d’un humain en eux.

« Sinon, ils risquent de perdre la confiance d’un humain en eux d’une manière qui ne peut être récupérée », a déclaré Esterwood.

Que signifient les résultats pour la réparation de la confiance entre humains ? La confiance n’est jamais entièrement réparée par des excuses, des démentis, des explications ou des promesses, ont déclaré les chercheurs.

« Les résultats de notre étude indiquent qu’après trois violations et réparations, la confiance ne peut pas être entièrement restaurée, ce qui confirme l’adage » trois coups et vous êtes éliminé «  », a déclaré Lionel. « Ce faisant, cela présente une limite possible qui peut exister quant au moment où la confiance peut être entièrement restaurée. »

Même lorsqu’un robot peut faire mieux après avoir commis une erreur et s’adapter après cette erreur, il se peut qu’il n’ait pas la possibilité de faire mieux, a déclaré Esterwood. Ainsi, les avantages des robots sont perdus.

Lionel a noté que les gens peuvent tenter de contourner ou de contourner le robot, ce qui réduit leurs performances. Cela pourrait entraîner des problèmes de performances qui, à leur tour, pourraient les conduire à être licenciés pour manque de performances et / ou de conformité, a-t-il déclaré.

Les découvertes apparaissent dans Ordinateurs dans le comportement humain.

Fourni par l’Université du Michigan