Le cadre de gestion des risques vise à améliorer la fiabilité de l’intelligence artificielle
Le National Institute of Standards and Technology (NIST) du Département américain du commerce a publié son Cadre de gestion des risques liés à l’intelligence artificielle (AI RMF 1.0)un document d’orientation à usage volontaire par les organisations qui conçoivent, développent, déploient ou utilisent des systèmes d’IA pour aider à gérer les nombreux risques des technologies d’IA.
L’AI RMF suit une direction du Congrès pour que le NIST développe le cadre et a été produit en étroite collaboration avec les secteurs privé et public. Il est destiné à s’adapter au paysage de l’IA à mesure que les technologies continuent de se développer et à être utilisé par les organisations à des degrés et capacités variables afin que la société puisse bénéficier des technologies de l’IA tout en étant protégée de ses dommages potentiels.
« Ce cadre volontaire aidera à développer et à déployer des technologies d’IA de manière à permettre aux États-Unis, à d’autres nations et organisations d’améliorer la fiabilité de l’IA tout en gérant les risques en fonction de nos valeurs démocratiques », a déclaré le secrétaire adjoint au Commerce, Don Graves. « Cela devrait accélérer l’innovation et la croissance de l’IA tout en faisant progresser – plutôt que de restreindre ou de nuire – les droits civils, les libertés civiles et l’équité pour tous. »
Par rapport aux logiciels traditionnels, l’IA présente un certain nombre de risques différents. Les systèmes d’IA sont formés sur des données qui peuvent changer au fil du temps, parfois de manière significative et inattendue, affectant les systèmes d’une manière qui peut être difficile à comprendre. Ces systèmes sont également de nature « socio-technique », c’est-à-dire qu’ils sont influencés par la dynamique sociétale et le comportement humain. Les risques liés à l’IA peuvent émerger de l’interaction complexe de ces facteurs techniques et sociétaux, affectant la vie des gens dans des situations allant de leurs expériences avec les chatbots en ligne aux résultats des demandes d’emploi et de prêt.
Le cadre permet aux organisations de penser différemment à l’IA et aux risques. Il promeut un changement de culture institutionnelle, encourageant les organisations à aborder l’IA avec une nouvelle perspective, y compris comment penser, communiquer, mesurer et surveiller les risques liés à l’IA et ses impacts positifs et négatifs potentiels.
L’AI RMF fournit un processus flexible, structuré et mesurable qui permettra aux organisations de faire face aux risques liés à l’IA. Suivre ce processus de gestion des risques liés à l’IA peut maximiser les avantages des technologies d’IA tout en réduisant la probabilité d’impacts négatifs sur les individus, les groupes, les communautés, les organisations et la société.
Selon le sous-secrétaire aux normes et à la technologie et directeur du NIST, Laurie E. Locascio, le cadre fait partie des efforts plus larges du NIST pour cultiver la confiance dans les technologies de l’IA, ce qui est nécessaire si la technologie doit être largement acceptée par la société.
« Le cadre de gestion des risques liés à l’IA peut aider les entreprises et autres organisations de tous les secteurs et de toutes les tailles à démarrer ou à améliorer leurs approches de gestion des risques liés à l’IA », a déclaré Locascio. « Il offre une nouvelle façon d’intégrer des pratiques responsables et des conseils exploitables pour opérationnaliser une IA fiable et responsable. Nous nous attendons à ce que le RMF de l’IA aide à stimuler le développement de meilleures pratiques et normes. »
Le RMF IA est divisé en deux parties. La première partie explique comment les organisations peuvent encadrer les risques liés à l’IA et décrit les caractéristiques des systèmes d’IA dignes de confiance. La deuxième partie, le cœur du cadre, décrit quatre fonctions spécifiques – gouverner, cartographier, mesurer et gérer – pour aider les organisations à faire face aux risques des systèmes d’IA dans la pratique. Ces fonctions peuvent être appliquées dans des cas d’utilisation spécifiques au contexte et à toutes les étapes du cycle de vie de l’IA.
Travaillant en étroite collaboration avec les secteurs privé et public, le NIST développe l’AI RMF depuis 18 mois. Le document reflète environ 400 ensembles de commentaires formels que le NIST a reçus de plus de 240 organisations différentes sur les versions préliminaires du cadre. Le NIST a publié aujourd’hui des déclarations de certaines des organisations qui se sont déjà engagées à utiliser ou à promouvoir le cadre.
L’agence a également publié aujourd’hui un manuel complémentaire AI RMF, qui suggère des moyens de naviguer et d’utiliser le cadre.
Le NIST prévoit de travailler avec la communauté de l’IA pour mettre à jour périodiquement le cadre et accueille à tout moment les suggestions d’ajouts et d’améliorations au playbook. Les commentaires reçus d’ici la fin février 2023 seront inclus dans une version mise à jour du playbook qui sera publiée au printemps 2023.
En outre, le NIST prévoit de lancer un centre de ressources sur l’IA digne de confiance et responsable pour aider les organisations à mettre en pratique l’IA RMF 1.0. L’agence encourage les organisations à développer et à partager des profils sur la manière dont elles l’utiliseraient dans leurs contextes spécifiques. Les soumissions peuvent être envoyées à AIFramework@nist.gov.