Un «neuroshield» pourrait protéger les citoyens de l'intelligence artificielle, selon un expert en neurosciences

Des recherches montrent que les humains peuvent hériter des préjugés de l’IA

Une nouvelle recherche menée par les psychologues Lucía Vicente et Helena Matute de l’Université Deusto à Bilbao, en Espagne, prouve que les gens peuvent hériter des biais de l’intelligence artificielle (erreurs systématiques dans les résultats de l’IA) dans leurs décisions.

Les résultats étonnants obtenus par les systèmes d’IA, capables par exemple de tenir une conversation comme le ferait un humain, ont donné à cette technologie une image de grande fiabilité.

De plus en plus de domaines professionnels mettent en œuvre des outils basés sur l’IA pour aider les spécialistes à prendre des décisions afin de minimiser les erreurs dans leurs décisions. Cependant, cette technologie n’est pas sans risques en raison de biais dans les résultats de l’IA. Nous devons considérer que les données utilisées pour entraîner les modèles d’IA reflètent les décisions humaines passées. Si ces données cachent des modèles d’erreurs systématiques, l’algorithme d’IA apprendra et reproduira ces erreurs. En effet, de nombreuses preuves indiquent que les systèmes d’IA héritent et amplifient les préjugés humains.

La découverte la plus pertinente des recherches de Vicente et Matute est que l’effet inverse peut également se produire : les humains héritent des préjugés de l’IA. Autrement dit, non seulement l’IA hériterait de ses préjugés des données humaines, mais les gens pourraient également hériter de ces préjugés de l’IA, avec le risque de se retrouver piégés dans une boucle dangereuse. Rapports scientifiques a publié les résultats des recherches de Vicente et Matute.

Dans la série de trois expériences menées par les chercheurs, des volontaires ont effectué une tâche de diagnostic médical. Un groupe de participants a été assisté par un système d’IA biaisé (il présentait une erreur systématique) au cours de cette tâche, tandis que le groupe témoin n’était pas assisté. L’IA, la tâche de diagnostic médical et la maladie étaient fictives. L’ensemble du décor était une simulation pour éviter toute interférence avec des situations réelles.

Les participants assistés par le système d’IA biaisé ont commis le même type d’erreurs que l’IA, alors que le groupe témoin n’a pas commis ces erreurs. Ainsi, les recommandations de l’IA ont influencé les décisions des participants.

Pourtant, la découverte la plus significative de la recherche est qu’après interaction avec le système d’IA, ces volontaires ont continué à imiter son erreur systématique lorsqu’ils ont commencé à effectuer la tâche de diagnostic sans aide. En d’autres termes, les participants qui ont d’abord été assistés par l’IA biaisée ont reproduit son biais dans un contexte sans ce soutien, démontrant ainsi un biais héréditaire. Cet effet n’a pas été observé chez les participants du groupe témoin, qui ont réalisé la tâche sans aide dès le début.

Ces résultats montrent qu’une information biaisée par un modèle d’intelligence artificielle peut avoir un impact négatif durable sur les décisions humaines. La découverte d’un héritage de l’effet de biais de l’IA souligne la nécessité de poursuivre les recherches psychologiques et multidisciplinaires sur l’interaction IA-humain.

En outre, une réglementation fondée sur des données probantes est également nécessaire pour garantir une IA juste et éthique, en tenant compte non seulement des caractéristiques techniques de l’IA, mais également des aspects psychologiques de l’IA et de la collaboration humaine.

Fourni par l’Université de Deusto