Modèles d'IA Open Source - Ce que le Comité consultatif national américain sur l'IA veut que vous sachiez

Modèles d’IA Open Source – Ce que le Comité consultatif national américain sur l’IA veut que vous sachiez

L’essor sans précédent de l’intelligence artificielle (IA) a apporté des possibilités de transformation à tous les niveaux, depuis les industries et les économies jusqu’aux sociétés dans leur ensemble. Cependant, ce saut technologique introduit également un ensemble de défis potentiels. Lors de sa récente réunion publique, le Comité consultatif national sur l’IA (NAIAC)1qui fournit des recommandations sur la compétitivité de l’IA aux États-Unis, la science autour de l’IA et la main-d’œuvre en IA au président et au National AI Initiative Office, a voté sur une recommandation sur « l’IA générative loin des frontières ».2

Cette recommandation vise à décrire les risques et les recommandations proposées sur la manière d’évaluer et de gérer les modèles d’IA hors frontières – faisant généralement référence aux modèles open source. En résumé, la recommandation du NAIAC fournit une feuille de route pour naviguer de manière responsable dans les complexités de l’IA générative. Cet article de blog vise à faire la lumière sur cette recommandation et à décrire comment les clients de Simseo peuvent exploiter la plateforme de manière proactive pour aligner leur adaptation de l’IA sur cette recommandation.

Modèles frontières et modèles hors frontières

Dans la recommandation, la distinction entre les modèles frontières et hors frontières d’IA générative repose sur leur accessibilité et leur niveau d’avancement. Les modèles Frontier représentent les développements les plus récents et les plus avancés en matière de technologie d’IA. Il s’agit de systèmes complexes et à haute capacité généralement développés et accessibles par des entreprises technologiques de premier plan, des instituts de recherche ou des laboratoires spécialisés en IA (tels que les modèles de pointe actuels comme GPT-4 et Google Gemini). En raison de leur complexité et de leur nature avant-gardiste, les modèles frontières ont généralement un accès limité – ils ne sont pas largement disponibles ni accessibles au grand public.

D’un autre côté, les modèles hors frontières ont généralement un accès sans contrainte : il s’agit de systèmes d’IA plus largement disponibles et accessibles, souvent disponibles en open source. Ils n’atteignent peut-être pas les capacités d’IA les plus avancées, mais sont importants en raison de leur utilisation plus large. Ces modèles incluent à la fois des systèmes propriétaires et des systèmes d’IA open source et sont utilisés par un plus large éventail de parties prenantes, notamment des petites entreprises, des développeurs individuels et des établissements d’enseignement.

Cette distinction est importante pour comprendre les différents niveaux de risques, les besoins de gouvernance et les approches réglementaires requis pour les différents systèmes d’IA. Si les modèles frontières peuvent nécessiter une surveillance spécialisée en raison de leur nature avancée, les modèles hors frontières présentent un ensemble différent de défis et de risques en raison de leur utilisation et de leur accessibilité généralisées.

Ce que couvre la recommandation de la NAIAC

La recommandation sur « L’IA générative loin des frontières », publiée par la NAIAC en octobre 2023, se concentre sur la gouvernance et l’évaluation des risques des systèmes d’IA générative. Le document fournit deux recommandations clés pour l’évaluation des risques associés aux systèmes d’IA générative :

Pour les modèles exclusifs hors frontière : Il conseille à l’administration Biden-Harris d’encourager les entreprises à prolonger leurs engagements volontaires.3 inclure des évaluations basées sur les risques des systèmes d’IA générative hors frontières. Cela comprend des tests indépendants, l’identification des risques et le partage d’informations sur les risques potentiels. Cette recommandation vise particulièrement à souligner l’importance de comprendre et de partager les informations sur les risques associés aux modèles hors frontières.

Pour les modèles open source hors frontières : Pour les systèmes d’IA générative avec accès illimité, tels que les systèmes open source, le National Institute of Standards and Technology (NIST) est chargé de collaborer avec un large éventail de parties prenantes pour définir des cadres appropriés pour atténuer les risques liés à l’IA. Ce groupe comprend le monde universitaire, la société civile, les organisations de défense et l’industrie (lorsque la faisabilité juridique et technique le permet). L’objectif est de développer des environnements de test et d’analyse, des systèmes de mesure et des outils pour tester ces systèmes d’IA. Cette collaboration vise à établir des méthodologies appropriées pour identifier les risques potentiels critiques associés à ces systèmes plus ouvertement accessibles.

La NAIAC souligne la nécessité de comprendre les risques posés par les systèmes d’IA générative largement disponibles et hors frontières, qui comprennent à la fois des systèmes propriétaires et open source. Ces risques vont de l’acquisition d’informations préjudiciables aux atteintes à la vie privée et à la génération de contenus préjudiciables. La recommandation reconnaît les défis uniques liés à l’évaluation des risques dans les systèmes d’IA open source en raison de l’absence d’objectif fixe pour l’évaluation et des limites quant aux personnes pouvant tester et évaluer le système.

En outre, il souligne que les enquêtes sur ces risques nécessitent une approche multidisciplinaire, intégrant les connaissances des sciences sociales, des sciences du comportement et de l’éthique, pour soutenir les décisions en matière de réglementation ou de gouvernance. Tout en reconnaissant les défis, le document souligne également les avantages des systèmes open source pour démocratiser l’accès, stimuler l’innovation et améliorer l’expression créative.

Pour les systèmes d’IA propriétaires, la recommandation souligne que même si les entreprises comprennent les risques, ces informations ne sont souvent pas partagées avec les parties prenantes externes, notamment les décideurs politiques. Cela appelle à plus de transparence sur le terrain.

Réglementation des modèles d’IA générative

Récemment, les discussions sur les risques catastrophiques de l’IA ont dominé les conversations sur les risques liés à l’IA, notamment en ce qui concerne l’IA générative. Cela a conduit à des appels à réglementer l’IA dans le but de promouvoir le développement et le déploiement responsables d’outils d’IA. Il vaut la peine d’explorer l’option réglementaire en ce qui concerne l’IA générative. Il existe deux domaines principaux dans lesquels les décideurs politiques peuvent réglementer l’IA : la réglementation au niveau du modèle et la réglementation au niveau des cas d’utilisation.

Dans l’IA prédictive, en général, les deux niveaux se chevauchent de manière significative, car l’IA étroite est conçue pour un cas d’utilisation spécifique et ne peut pas être généralisée à de nombreux autres cas d’utilisation. Par exemple, un modèle développé pour identifier les patients présentant une forte probabilité de réadmission ne peut être utilisé que pour ce cas d’utilisation particulier et nécessitera des informations d’entrée similaires à celles sur lesquelles il a été formé. Cependant, un seul grand modèle linguistique (LLM), une forme de modèles d’IA génératifs, peut être utilisé de plusieurs manières pour résumer les dossiers des patients, générer des plans de traitement potentiels et améliorer la communication entre les médecins et les patients.

Comme le soulignent les exemples ci-dessus, contrairement à l’IA prédictive, le même LLM peut être utilisé dans divers cas d’utilisation. Cette distinction est particulièrement importante lorsqu’il s’agit de réglementer l’IA.

Pénaliser les modèles d’IA au niveau du développement, en particulier pour les modèles d’IA génératifs, pourrait entraver l’innovation et limiter les capacités bénéfiques de la technologie. Néanmoins, il est primordial que les constructeurs de modèles d’IA génératifs, tant frontaliers qu’hors frontières, adhèrent aux directives de développement responsable de l’IA.

Au lieu de cela, l’accent devrait être mis sur les méfaits d’une telle technologie au niveau des cas d’utilisation, notamment en ce qui concerne une gouvernance plus efficace de son utilisation. Simseo peut simplifier la gouvernance en fournissant des fonctionnalités qui permettent aux utilisateurs d’évaluer leurs cas d’utilisation de l’IA pour les risques associés aux biais et à la discrimination, à la toxicité et aux dommages, aux performances et aux coûts. Ces fonctionnalités et outils peuvent aider les organisations à garantir que les systèmes d’IA sont utilisés de manière responsable et alignés sur leurs processus de gestion des risques existants sans étouffer l’innovation.

Gouvernance et risques des modèles open source et fermés

Un autre domaine qui a été mentionné dans la recommandation et inclus plus tard dans le décret récemment signé par le président Biden.4, est le manque de transparence dans le processus de développement du modèle. Dans les systèmes à source fermée, l’organisation en développement peut étudier et évaluer les risques associés aux modèles d’IA génératifs développés. Cependant, les informations sur les risques potentiels, les conclusions concernant les résultats de l’équipe rouge et les évaluations réalisées en interne n’ont généralement pas été partagées publiquement.

D’un autre côté, les modèles open source sont intrinsèquement plus transparents en raison de leur conception ouvertement disponible, ce qui facilite l’identification et la correction des problèmes potentiels avant le déploiement. Mais aucune recherche approfondie sur les risques potentiels et l’évaluation de ces modèles n’a été menée.

Les caractéristiques distinctes et différentes de ces systèmes impliquent que les approches de gouvernance pour les modèles open source doivent différer de celles appliquées aux modèles fermés.

Évitez de réinventer la confiance entre les organisations

Compte tenu des défis liés à l’adaptation de l’IA, il est clairement nécessaire de normaliser le processus de gouvernance de l’IA pour éviter que chaque organisation n’ait à réinventer ces mesures. Diverses organisations, dont Simseo, ont élaboré leur cadre pour une IA digne de confiance.5. Le gouvernement peut aider à diriger l’effort de collaboration entre le secteur privé, le monde universitaire et la société civile pour développer des approches standardisées pour répondre aux préoccupations et fournir des processus d’évaluation robustes pour garantir le développement et le déploiement de systèmes d’IA fiables. Le récent décret sur le développement et l’utilisation sûrs et fiables de l’IA ordonne au NIST de diriger cet effort de collaboration conjoint visant à élaborer des lignes directrices et des mesures d’évaluation pour comprendre et tester les modèles d’IA génératifs. La Déclaration des droits de l’IA de la Maison Blanche et le cadre de gestion des risques de l’IA (RMF) du NIST peuvent servir de principes et de cadres fondamentaux pour le développement et le déploiement responsables de l’IA. Les capacités de la plateforme Simseo AI, alignées sur le NIST AI RMF, peuvent aider les organisations à adopter des pratiques de confiance et de gouvernance standardisées. Les organisations peuvent tirer parti de ces outils Simseo pour une gestion plus efficace et standardisée de la conformité et des risques pour l’IA générative et prédictive.

1 Comité consultatif national sur l’IA – AI.gov

2 RECOMMANDATIONS : L’IA générative loin des frontières

3 Décret exécutif sur le développement et l’utilisation sûrs, sécurisés et fiables de l’intelligence artificielle | La maison Blanche

4 https://www.datarobot.com/trusted-ai-101/