OpenAI et Anthropic partageront leurs modèles avec le gouvernement américain avant de les publier. La raison : vérifier qu’ils sont en sécurité

OpenAI et Anthropic partageront leurs modèles avec le gouvernement américain avant de les publier. La raison : vérifier qu’ils sont en sécurité

Il y a un an, l’administration Joe Biden a lancé l’Artificial Intelligence Security Institute, une initiative dont l’objectif, expliquait-elle à l’époque, est d’évaluer les risques connus et émergents des modèles fondamentaux d’intelligence artificielle. Autrement dit, évaluez l'impact possible que pourraient avoir ces modèles formés avec une énorme quantité de données, voir GPT, Claude, Gemini ou LLaMA.

Pour cela, la collaboration de l’industrie est vitale. Après tout, sans accès aux modèles, on ne peut pas étudier grand-chose, voire rien. Eh bien, cette semaine, le premier accord a été annoncé entre le gouvernement américain et deux entreprises leaders du secteur : OpenAI (GPT) et Anthropic (Claude), qui partageront leurs modèles avec le gouvernement avant de les lancer à l'étude.

Collaboration formelle. Comme le rapporte l'AI Safety Institute, qui dépend du NIST (National Institute of Standards and Technology) qui, à son tour, dépend du ministère américain du Commerce, le gouvernement, OpenAI et Anthropic ont établi une « collaboration formelle dans la recherche ». , tests et évaluation de sécurité » de leurs intelligences artificielles.

Que vont-ils faire ? Donnez accès à vos modèles, bien sûr. Comme le détaille l'institution dans un communiqué, vous aurez « accès aux principales nouveautés de chaque entreprise avant et après leur lancement public ». Cela permettra « une recherche collaborative sur la manière d'évaluer les capacités et les risques de sécurité, ainsi que les méthodes permettant d'atténuer ces risques ».

En retour, l'AI Safety Institute « prévoit de fournir des commentaires à Anthropic et OpenAI sur d'éventuelles améliorations de sécurité dans leurs modèles », ce qu'ils feront en « étroite collaboration » avec l'AI Safety Institute du Royaume-Uni. En termes simples, l’objectif est d’auditer les modèles, de détecter les risques potentiels et de trouver des solutions potentielles, le tout dans le but ultime d’un développement responsable de l’IA.

Comment réguler l'IA. Il s’agit d’un petit pas en avant, mais non moins significatif. Réguler l’intelligence artificielle n’est pas chose facile, car elle comporte une infinité de nuances à prendre en compte. Il existe également un risque associé important : une réglementation trop stricte pourrait réduire l’innovation et nuire, surtout, aux petits développeurs.

Sans oublier que, même si les États-Unis abritent certaines des entreprises les plus avant-gardistes du secteur, la Chine prend également des mesures et de quelle manière. Bien que les États-Unis possèdent, entre autres, OpenAI, Anthropic et Meta, la Chine possède beaucoup plus de brevets liés à l’intelligence artificielle. Les chiffres parlent d’eux-mêmes : entre 2013 et 2023, la Chine a déposé 38 000 brevets. Etats-Unis, « seulement » 6 300.

Les États-Unis veulent être à la pointe de cette technologie, mais la Chine les talonne et les surpasse en termes de brevets.

« Ces accords ne sont qu'un début, mais ils constituent une étape importante dans notre travail pour aider à gérer de manière responsable l'avenir de l'IA », a déclaré Elizabeth Kelly, directrice de l'US AI Safety Institute et directrice de la stratégie chez OpenAI. Nous pensons que l'institut a un rôle essentiel à jouer dans la définition du leadership américain en matière de développement responsable de l'intelligence artificielle et espérons que notre travail commun fournira un cadre sur lequel s'appuyer pour le reste du monde. »

Claude
Claude

Images | Simseo avec Mockuuups Studio

Autorégulation. A noter que le 21 juillet 2023, sept entreprises (Amazon, Google, OpenAI, Microsoft, Meta, Anthropic et Inflection) se sont engagées à respecter un ensemble de huit engagements volontaires liés par exemple à la transparence, aux tests, à la gestion des risques. ou investir dans la cybersécurité. Ici (PDF), vous pouvez tous les lire.

Bien que cet accord ne soit pas contraignant, la collaboration d'OpenAI et d'Anthropic fait partie du premier engagement par lequel « les entreprises s'engagent à réaliser des tests de sécurité internes et externes de leurs systèmes d'IA avant leur lancement. Ces tests, réalisés en partie par des indépendants experts, protègent contre certaines des sources les plus importantes de risques liés à l'IA, telles que la biosécurité et la cybersécurité, ainsi que contre ses effets sociétaux plus larges.

Images | Unsplash 1, 2, édité par Simseo

À Simseo | ChatGPT et ses rivaux sont ennuyeux. Et les transformer en chatbots amusants ne va pas être facile.