Le gouvernement britannique a suggéré que le cadre de l’IA est trop limité, selon des experts en technologie
Shaping AI est une étude de recherche internationale en sciences sociales en cours qui examine les débats publics sur l’intelligence artificielle dans quatre pays sur une période de dix ans (2012-2022). Des universitaires de l’Université de Warwick examinent les controverses de recherche sur l’IA et analysent les perceptions d’experts au Royaume-Uni, en collaboration avec des partenaires entreprenant des recherches similaires en Amérique du Nord et en Europe.
L’équipe de l’Université de Warwick a consulté 70 experts britanniques en IA et en « IA et société » sur ce qu’ils perçoivent comme les controverses les plus importantes et les plus négligées en matière d’IA. La consultation a identifié la technologie de reconnaissance faciale comme un sujet de préoccupation majeur, et son application dans la société, par exemple, son utilisation dans les écoles et par la police. Cependant, les développements les plus controversés identifiés par les experts britanniques concernent l’architecture technique sous-jacente de l’IA contemporaine et la manière dont elle est actuellement contrôlée par un nombre limité d’entreprises technologiques puissantes.
Les experts ont déclaré que les gens devraient être plus préoccupés par le manque de connaissances et de surveillance du public sur les origines des données sur lesquelles l’IA est formée ; par exemple, d’où proviennent les données et si le consentement a été obtenu pour utiliser ces données. Ils ont également souligné les coûts humains et environnementaux de la formation et du déploiement de grands modèles d’IA comme ChatGPT, qui s’appuie sur de grandes quantités de données librement disponibles et protégées par le droit d’auteur, ainsi que sur une main-d’œuvre humaine peu coûteuse et, en outre, est très énergivore.
Lors d’un récent atelier, les chercheurs de l’Université de Warwick ont présenté les résultats de cette consultation et une analyse des principales controverses sur l’IA identifiées, et ont travaillé avec 30 experts pour évaluer les résultats et discuter de ce qui devrait préoccuper le plus la société dans les années à venir. Le rapport « Transformation des controverses sur l’IA : comment passer des controverses sur l’IA que nous avons aux controverses dont nous avons besoin ? » est publié en ligne.
Noortje Marres, professeure de sciences, de technologie et de société, a déclaré : « En fin de compte, c’est le manque de transparence et de surveillance des données et des méthodes sur lesquelles l’IA est construite qui devrait être au centre des préoccupations de la société, plutôt que la seule application de l’IA dans des domaines spécifiques. contextes.
« Notre analyse a révélé que les défis associés à l’IA sont bien connus dans certains contextes et parmi diverses circonscriptions, de l’industrie, de la science, de l’activisme et que de plus en plus, le public participe au débat autour de l’IA, mais les problèmes discutés à ce sujet sont très difficiles à résoudre parce qu’il y a un manque de transparence et de surveillance autour de la structure fondamentale de l’IA dans son développement et son déploiement. »
Les universitaires disent que si ces préoccupations ne sont pas résolues, il pourrait y avoir d’énormes ramifications pour le contrôle de la qualité de la science, de l’innovation et, finalement, des infrastructures essentielles dans la société à l’avenir.
Le professeur Marres poursuit : « Il y a toujours une responsabilité dans la science, chaque fois que des recherches sont menées, il existe des cadres éthiques et des cadres de protection des données à respecter, et les scientifiques sont tenus d’être transparents sur la façon dont ils mènent leurs recherches et sur les données qu’ils utilisent.
« L’IA évolue et se développe à un rythme rapide et modifie de nombreux aspects différents de la société. Le manque de connaissances et de transparence concernant les données et les méthodes en cours de développement dans l’industrie de l’IA signifie que les développements scientifiques et technologiques ne peuvent pas pleinement respecter les réglementations en vigueur.
« Le gouvernement britannique doit reconnaître ce nouveau type de risque et les changements qui en résultent pour la science, l’innovation et la société. »