La lutte organisée contre les discriminations automatisées

L’étude trouve que Chatgpt reflète les biais de décision humaine dans la moitié des tests

Pouvons-nous vraiment faire confiance à l’IA pour prendre de meilleures décisions que les humains? Une nouvelle étude dit… pas toujours. Les chercheurs ont découvert que Chatgpt d’Openai, l’un des modèles d’IA les plus avancés et les plus populaires, fait les mêmes types d’erreurs de prise de décision que les humains dans certaines situations – des biais de diffusion comme une confiance excessive de l’agression à chaud (joueur) – le coût agissant dans d’autres (par exemple, ne souffrant pas de date de base de base ou de chute de file d’assistance).

Publié dans le Gestion des opérations de fabrication et de service Journal, l’étude révèle que Chatgpt ne se contente pas de croquer les nombres – il « pense » d’une manière étrangement similaire aux humains, y compris les raccourcis mentaux et les angles morts. Ces biais restent plutôt stables dans différentes situations commerciales, mais peuvent changer à mesure que l’IA évolue d’une version à l’autre.

AI: un assistant intelligent avec des défauts humains

L’étude, « Un manager et une IA entrent dans un bar: Chatgpt prend-il des décisions biaisées comme nous? » Les résultats?

  • L’IA tombe dans les pièges à décision humaine – ChatGPT a montré des biais comme une confiance excessive ou une aversion d’ambiguïté, et une erreur de conjonction (aka comme « Linda Problem »), dans près de la moitié des tests.
  • L’IA est excellente en mathématiques, mais lutte avec les appels de jugement – il excelle dans les problèmes logiques et basés sur les probabilités mais trébuche lorsque les décisions nécessitent un raisonnement subjectif.
  • Le biais ne disparaît pas – bien que le nouveau modèle GPT-4 soit plus précis analytique que son prédécesseur, il a parfois montré des biais plus forts dans les tâches basées sur le jugement.

Pourquoi cela compte

De l’embauche d’emploi aux approbations de prêts, l’IA façonne déjà des décisions majeures dans les affaires et le gouvernement. Mais si l’IA imite les biais humains, pourrait-il renforcer les mauvaises décisions au lieu de les réparer?

« Comme l’IA apprend des données humaines, elle peut aussi penser comme un humain – les biais et tout », explique Yang Chen, auteur principal et professeur adjoint à l’Université Western. « Nos recherches montrent que lorsque l’IA est utilisée pour faire des jugements, il utilise parfois les mêmes raccourcis mentaux que les gens. »

L’étude a révélé que Chatgpt a tendance à:

  • Jouez en toute sécurité – AI évite les risques, même lorsque des choix plus risqués pourraient donner de meilleurs résultats.
  • Se surestimer – Chatgpt suppose qu’il est plus précis qu’il ne l’est vraiment.
  • Cherchez la confirmation – AI favorise les informations qui soutiennent les hypothèses existantes, plutôt que de les contester.
  • Évitez l’ambiguïté – AI préfère les alternatives avec plus d’informations et moins d’ambiguïté.

« Lorsqu’une décision a une bonne réponse, AI le cloue – il vaut mieux trouver la bonne formule que la plupart des gens », explique Anton Ovchinnikov de l’Université Queen’s. « Mais lorsque le jugement est impliqué, l’IA peut tomber dans les mêmes pièges cognitifs que les gens. »

Alors, pouvons-nous faire confiance à l’IA pour prendre de grandes décisions?

Avec les gouvernements du monde entier travaillant sur les réglementations de l’IA, l’étude soulève une question urgente: devrions-nous compter sur l’IA pour passer des appels importants alors qu’il peut être tout aussi biaisé que les humains?

« L’IA n’est pas un arbitre neutre », explique Samuel Kirshner de l’UNSW Business School. « S’il n’est pas contrôlé, cela pourrait ne pas résoudre les problèmes de prise de décision – cela pourrait en fait les aggraver. »

Les chercheurs disent que c’est pourquoi les entreprises et les décideurs politiques doivent surveiller les décisions de l’IA aussi étroitement qu’ils le feraient un décideur humain.

« L’IA doit être traitée comme un employé qui prend des décisions importantes – elle a besoin de surveillance et de directives éthiques », explique Meena Andiappan de l’Université McMaster. « Sinon, nous risquons d’automatiser la pensée erronée au lieu de l’améliorer. »

Quelle est la prochaine étape?

Les auteurs de l’étude recommandent des audits réguliers des décisions axées sur l’IA et affiner les systèmes d’IA pour réduire les biais. Avec l’influence de l’IA, la croissance, en s’assurant qu’elle améliore la prise de décision – plutôt que de reproduire les défauts humains – sera la clé.

« L’évolution de GPT-3.5 à 4.0 suggère que les derniers modèles deviennent plus humains dans certaines régions, mais moins humains mais plus précis dans d’autres », explique Tracy Jenkin de l’Université Queen’s. « Les gestionnaires doivent évaluer comment différents modèles fonctionnent sur leurs cas d’utilisation de décision et réévaluer régulièrement pour éviter les surprises. Certains cas d’utilisation auront besoin d’un raffinement des modèles significatif. »