Les chercheurs utilisent des questions de justice environnementale pour révéler les préjugés géographiques dans ChatGPT

Les chercheurs utilisent des questions de justice environnementale pour révéler les préjugés géographiques dans ChatGPT

Les chercheurs de Virginia Tech ont découvert des limites dans la capacité de ChatGPT à fournir des informations spécifiques à un emplacement sur les questions de justice environnementale. Leurs conclusions, publiées dans la revue Télématique et informatiquesuggèrent le potentiel de biais géographiques existant dans les modèles actuels d’intelligence artificielle (IA) générative.

ChatGPT est un modèle en grand langage développé par OpenAI Inc., une organisation de recherche en intelligence artificielle. ChatGPT est conçu pour comprendre les questions et générer des réponses textuelles basées sur les demandes des utilisateurs. La technologie a un large éventail d’applications allant de la création de contenu et de la collecte d’informations à l’analyse de données et à la traduction linguistique.

Un aperçu comté par comté

« En tant que géographe et scientifique des données géospatiales, l’IA générative est un outil au potentiel puissant », a déclaré le professeur adjoint Junghwan Kim du Collège des ressources naturelles et de l’environnement. « Dans le même temps, nous devons étudier les limites de la technologie pour garantir que les futurs développeurs reconnaissent les possibilités de biais. C’était la motivation motrice de cette recherche. »

En utilisant une liste des 3 108 comtés des États-Unis contigus, le groupe de recherche a demandé à l’interface ChatGPT de répondre à une question sur les problèmes de justice environnementale dans chaque comté. Les chercheurs ont choisi la justice environnementale comme sujet pour élargir la gamme de questions généralement utilisées pour tester les performances des outils d’IA générative. Poser des questions par comté a permis aux chercheurs de mesurer les réponses ChatGPT par rapport à des considérations sociodémographiques telles que la densité de population et le revenu médian des ménages.

Les principales conclusions indiquent des limites

En analysant des comtés aux populations aussi variées que le comté de Los Angeles, en Californie, avec une population de 10 019 635 habitants, et le comté de Loving, au Texas, avec une population de 83 habitants, l’outil d’IA générative a montré sa capacité à identifier les défis de justice environnementale spécifiques à un emplacement dans des contextes vastes et élevés. -les zones à forte densité de population. Cependant, l’outil était limité dans sa capacité à identifier et à fournir des informations contextualisées sur les problèmes locaux de justice environnementale.

  • ChatGPT a pu fournir des informations spécifiques à un emplacement sur les questions de justice environnementale pour seulement 515 des 3 018 comtés saisis, soit 17 %.
  • Dans les États ruraux comme l’Idaho et le New Hampshire, plus de 90 pour cent de la population vivait dans des comtés qui ne pouvaient pas recevoir d’informations locales.
  • Dans les États où la population urbaine est plus importante, comme le Delaware ou la Californie, moins de 1 % de la population vivait dans des comtés qui ne peuvent pas recevoir d’informations spécifiques.

Impacts pour les développeurs et les utilisateurs d’IA

Alors que l’IA générative apparaît comme un nouvel outil de passerelle pour obtenir des informations, le test des biais potentiels dans les résultats de la modélisation constitue un élément important de l’amélioration de programmes tels que ChatGPT.

« Bien que des études plus approfondies soient nécessaires, nos résultats révèlent que des biais géographiques existent actuellement dans le modèle ChatGPT », a déclaré Kim, qui enseigne au Département de géographie. « C’est un point de départ pour étudier comment les programmeurs et les développeurs d’IA pourraient anticiper et atténuer la disparité des informations entre les grandes et les petites villes, entre les environnements urbains et ruraux. »

Kim a déjà publié un article sur la façon dont ChatGPT comprend les problèmes et les solutions en matière de transport aux États-Unis et au Canada. Son groupe de recherche Smart Cities for Good explore l’utilisation des méthodes et technologies de la science des données géospatiales pour résoudre les défis sociaux et environnementaux urbains.

Améliorer les capacités futures des outils

Le professeur adjoint Ismini Lourentzou du College of Engineering, co-auteur de l’article, a cité trois domaines de recherche plus approfondie pour les modèles à grand langage tels que ChatGPT :

  • Affiner les connaissances localisées et contextuellement ancrées, afin de réduire les biais géographiques
  • Protégez les modèles en langage volumineux tels que ChatGPT contre des scénarios difficiles tels que des instructions utilisateur ou des commentaires ambigus.
  • Améliorer la sensibilisation et la politique des utilisateurs afin que ceux-ci soient mieux informés des forces et des faiblesses, notamment sur les sujets sensibles

« Il y a beaucoup de problèmes avec la fiabilité et la résilience des modèles à grand langage », a déclaré Lourentzou, qui enseigne au Département d’informatique et est affilié au Centre Sanghani pour l’intelligence artificielle et l’analyse de données. « J’espère que nos recherches pourront guider de nouvelles recherches sur l’amélioration des capacités de ChatGPT et d’autres modèles. »