Le Parlement européen adopte des règles « pionnières » sur l’IA

Les experts décrivent des stratégies fondées sur des preuves pour le développement responsable de l'IA

Alors que les décideurs politiques aux États-Unis et à l'échelle mondiale considèrent comment gouverner la technologie de l'intelligence artificielle, les chercheurs de Berkeley se sont joints à d'autres pour recommander des opportunités pour développer une politique d'IA fondée sur des preuves.

Jennifer Chayes, Ion Stoica, Dawn Song et Emma Pierson sont co-auteurs de l'article – « Advancing Science and Evidence Based IA Policy » de Rishi Bommasani et al – émis dans la revue dans la revue Science le 31 juillet. L'article propose des mécanismes politiques pour relever les opportunités et les défis de «l'IA de plus en plus puissante».

Les co-auteurs supplémentaires sont les experts et les chercheurs de l'IA de l'Université de Stanford, l'Université de Princeton, le Carnegie Endowment for International Peace, la Harvard University, l'Institute for Advanced Study et Brown University.

La dernière publication suit un récent rapport développé par le Joint California Policy Working Group sur AI Frontier Models, qui a été co-dirigé par Chayes, professeur et doyen de l'UC Berkeley College of Computing, Data Science et Society (CDSS).

Le mois dernier, le groupe de travail a soumis son rapport final – « le rapport californien sur la politique de l'IA de Frontier » – à la demande du gouverneur Gavin Newsom. En examinant les meilleures preuves disponibles sur l'IA, le rapport du groupe de travail a proposé des principes clés de la politique pour aider à informer l'utilisation, l'évaluation et la gouvernance de l'IA frontalière dans l'État. Le rapport a été cité par les sénateurs de l'État de Californie et les membres de l'Assemblée rédigeant une législation, ainsi que les agences d'État, les chefs de file de l'industrie technologique et les organisations de la société civile.

L'article du 31 juillet dans Science Faire des recommandations à la bande plus large de décideurs politiques qui envisagent des interventions aux États-Unis et dans le monde: « La politique de l'IA devrait faire progresser l'innovation de l'IA en veillant à ce que ses avantages potentiels soient réalisés de manière responsable et largement partagés. Pour y parvenir, l'élaboration des politiques de l'IA devrait accorder une prime sur les preuves: la compréhension scientifique et l'analyse systématique devraient éclairer la politique, et la politique devrait accélérer la génération de preuves. »

Dans l'article, les auteurs articulent une vision du développement d'une politique d'IA fondée sur des preuves en considérant trois composantes principales: comment les preuves doivent éclairer la politique; l'état de preuve actuel; et comment la politique peut accélérer la génération de nouvelles preuves.

Les auteurs notent que « définir ce qui compte comme des preuves (crédibles) est le premier obstacle pour appliquer une politique fondée sur des preuves à un contexte d'IA – une tâche rendue plus critique car les normes de preuves varient selon les domaines de la politique. »

Cependant, les experts préviennent que les preuves en constante évolution ne devraient pas être utilisées par les acteurs politiques pour justifier l'inaction ou pour promouvoir les résultats sociétaux négatifs, citant les incidences passées de cooption de la cooption des industries comme exemples historiques pour éviter de répéter.

« La politique d'IA fondée sur des preuves bénéficierait de preuves non seulement crédibles mais aussi exploitables », ont déclaré les auteurs. « L'accent mis sur le risque marginal, ce qui signifie que les risques supplémentaires posés par l'IA par rapport aux technologies existantes comme les moteurs de recherche sur Internet, aideront à identifier les nouveaux risques et à intervenir de manière appropriée pour y remédier. »

« La large portée de l'IA peut signifier que les preuves et la politique sont mal alignées: bien que certaines preuves et politiques s'adressent carrément à l'IA, beaucoup plus en partie se croisent avec l'IA », ont déclaré les auteurs. « Une politique bien conçue devrait intégrer des preuves qui reflètent la compréhension scientifique plutôt que le battage médiatique. »

« La politique peut activement accélérer la génération de preuves qui peuvent mieux éclairer les décisions politiques futures », ont déclaré les auteurs.

Ils recommandent que les décideurs politiques poursuivent les mécanismes suivants pour développer la base de preuves et servir de fondement de la politique d'IA fondée sur des preuves:

  • Inciter l'évaluation des modèles d'IA avant la libération;
  • Exiger que les grandes entreprises d'IA divulguent plus d'informations sur leurs pratiques de sécurité aux gouvernements et, en particulier, au public;
  • Augmenter la surveillance post-déploiement des dommages de l'IA;
  • Créer des boucliers pour protéger la recherche sur les IA tierces de bonne foi;
  • Renforcer les défenses sociétales, en particulier compte tenu des preuves claires d'un risque non atténué, même en l'absence de capacités d'IA; et,
  • Catalyser la formation d'un consensus scientifique.

« Nous reconnaissons que la fusion autour d'une approche fondée sur des preuves n'est que la première étape pour réconcilier de nombreuses tensions de base », ont conclu les auteurs. « Le débat approfondi est à la fois sain et nécessaire pour l'élaboration de politiques démocratiquement légitimes; un tel débat devrait être fondé sur des preuves disponibles. »