Le nouveau décret de Biden sur l'IA devrait dynamiser la Silicon Valley

Jusqu’où feriez-vous confiance en IA pour prendre des décisions importantes? La recherche suggère que la fiducie des formes d’alphabétisation statistique

Des recommandations de Netflix sur mesure aux flux Facebook personnalisés, l’intelligence artificielle (IA) sert un contenu qui correspond à nos préférences et à nos comportements passés. Mais alors qu’un ou deux conseils de restaurant sont à portée de main, à quel point seriez-vous confortable si Ai-Algorithms était en charge de votre expert médical ou de votre nouvelle location?

Maintenant, une nouvelle étude de l’Université d’Australie du Sud montre que la plupart des gens sont plus susceptibles de faire confiance à l’IA dans des situations où les enjeux sont faibles, tels que des suggestions musicales, mais moins susceptibles de faire confiance à l’IA dans des situations élevées, telles que les décisions médicales .

Cependant, ceux qui ont une mauvaise littératie statistique ou peu de familiarité avec l’IA étaient tout aussi susceptibles de faire confiance aux algorithmes pour les choix triviaux que pour les décisions critiques.

L’étude est publiée dans la revue Frontières en intelligence artificielle.

Évaluant les réponses de près de 2 000 participants dans 20 pays, les chercheurs ont constaté que l’alphabétisation statistique affecte la confiance différemment. Les personnes qui comprennent que les algorithmes de l’IA-fonctionnent à travers des prédictions basées sur les modèles (mais présentent également des risques et des biais) étaient plus sceptiques quant à l’IA dans des situations à enjeux élevés, mais moins dans des situations à faibles enjeux.

Ils ont également constaté que les personnes âgées et les hommes étaient généralement plus prudents envers les algorithmes, tout comme les gens dans des pays hautement industrialisés comme le Japon, les États-Unis et le Royaume-Uni.

Il est essentiel de comprendre comment et quand les gens font confiance aux algorithmes AI, en particulier lorsque la société continue d’introduire et d’adopter des technologies d’apprentissage automatique. Les taux d’adoption de l’IA ont augmenté de façon spectaculaire, 72% des organisations utilisant désormais l’IA dans leur entreprise.

L’auteur principal et expert en cognition humaine et artificielle, le Dr Fernando Marmolejo-Ramos, affirme que la vitesse à laquelle les technologies intelligentes sont utilisées pour externaliser les décisions consacrent notre compréhension pour les intégrer avec succès dans la société.

« Les algorithmes deviennent de plus en plus influents dans nos vies, ce qui a un impact, des choix mineurs sur la musique ou la nourriture, aux décisions majeures concernant les finances, les soins de santé et même la justice », a déclaré le Dr Marmolejo-Ramos.

« Mais l’utilisation d’algorithmes pour aider à prendre des décisions implique qu’il devrait y avoir une certaine confiance dans leur fiabilité. C’est pourquoi il est si important de comprendre ce qui influence la confiance des gens dans la prise de décision algorithmique. Nos recherches ont révélé que dans des scénarios à faibles enjeux, tels que Les recommandations des restaurants ou la sélection de la musique, les personnes ayant des niveaux plus élevés d’alphabétisation statistique étaient plus susceptibles de faire confiance aux algorithmes.

« Pourtant, lorsque les enjeux étaient élevés, pour des choses comme la santé ou l’emploi, l’inverse était vrai; ceux qui ont une meilleure compréhension statistique étaient moins susceptibles de placer leur foi dans les algorithmes. »

La Dre Florence Gabriel d’UNISA dit qu’il devrait y avoir un effort concentré pour promouvoir l’alphabétisation statistique et de l’IA parmi la population générale afin que les gens puissent mieux juger quand faire confiance aux décisions algorithmiques.

« Un algorithme généré par l’AI est aussi bonne que les données et le codage sur lesquels il est basé », explique le Dr Gabriel. « Nous devons seulement examiner l’interdiction récente de Deepseek pour comprendre comment les algorithmes peuvent produire des données biaisées ou risquées en fonction du contenu sur lequel il a été construit.

« D’un autre côté, lorsqu’un algorithme a été développé via une source de confiance et transparente, comme le chatbot Edchat sur mesure pour les écoles d’Australie du Sud, il est plus facilement fiable. Apprendre ces distinctions est important. Les gens doivent en savoir plus sur la façon dont Les algorithmes fonctionnent, et nous devons trouver des moyens de livrer cela de manière claire et simple qui sont pertinentes pour les besoins et les préoccupations de l’utilisateur.

« Les gens se soucient de ce que fait l’algorithme et de la façon dont il les affecte. Nous avons besoin d’explications claires et sans jargon qui s’alignent sur les préoccupations et le contexte de l’utilisateur. De cette façon, nous pouvons aider les gens à s’engager de manière responsable avec l’IA. »