OpenAI et Anthropic vont partager des modèles d'IA avec le gouvernement américain
Les principaux développeurs d'IA générative OpenAI et Anthropic ont accepté de donner au gouvernement américain l'accès à leurs nouveaux modèles pour des tests de sécurité dans le cadre d'accords annoncés jeudi.
Les accords ont été conclus avec l'Institut américain de sécurité de l'IA, qui fait partie du National Institute of Standards and Technology (NIST), une agence fédérale.
La réglementation de l'IA est une préoccupation majeure depuis l'avènement de ChatGPT d'OpenAI, les entreprises technologiques faisant pression pour une approche volontaire visant à ouvrir leur technologie à la surveillance gouvernementale.
L'agence a déclaré qu'elle fournirait des commentaires aux deux sociétés sur les améliorations potentielles de sécurité de leurs modèles avant et après leur publication publique, en travaillant en étroite collaboration avec son homologue de l'UK AI Safety Institute.
« Ces accords ne sont qu'un début, mais ils constituent une étape importante dans nos efforts pour contribuer à gérer de manière responsable l'avenir de l'IA », a déclaré Elizabeth Kelly, directrice de l'US AI Safety Institute.
L'agence a déclaré que les évaluations viseraient à soutenir les engagements volontaires pris par les principaux développeurs de modèles d'IA, tels qu'OpenAI et Anthropic, dans leur démarche d'innovation.
« Notre collaboration avec l'US AI Safety Institute s'appuie sur leur vaste expertise pour tester rigoureusement nos modèles avant un déploiement à grande échelle », a déclaré Jack Clark, cofondateur et responsable des politiques chez Anthropic.
« Cela renforce notre capacité à identifier et à atténuer les risques, favorisant ainsi le développement responsable de l'IA », a-t-il ajouté.
Cette collaboration s’inscrit dans le cadre d’un travail lié à un décret exécutif de la Maison Blanche sur l’IA annoncé en 2023 et conçu pour fournir un cadre juridique au déploiement rapide de modèles d’IA aux États-Unis.
Washington souhaite laisser aux entreprises technologiques toute liberté pour innover et expérimenter avec l’IA, contrairement à l’Union européenne, où les législateurs ont adopté une loi ambitieuse sur l’IA pour réglementer plus étroitement l’industrie.
Mais les législateurs pro-réglementation de Californie, l'État qui abrite la Silicon Valley, ont fait adopter mercredi un projet de loi sur la sécurité de l'IA qui doit maintenant être signé par le gouverneur pour devenir loi.
Dans un message publié sur les réseaux sociaux saluant l'accord de son entreprise avec le gouvernement américain, le PDG d'OpenAI, Sam Altman, a déclaré qu'il était « important » que la réglementation ait lieu au niveau national.
Il s’agissait d’une critique voilée de la loi d’État adoptée en Californie, qui prévoit des sanctions pour toute violation, à laquelle OpenAI s’est opposé, arguant qu’elle étoufferait la recherche et l’innovation.