california AI

Les entreprises d’IA veulent mettre fin aux règles de sécurité californiennes

La Californie est devenue le point central de la lutte pour réglementer l’intelligence artificielle. Les startups de l’IA et les géants de la technologie se mobilisent pour empêcher l’adoption d’un projet de loi qui, selon eux, imposerait des contraintes incroyablement vagues au nom de la sécurité. Même si certains acteurs du secteur ont réclamé une réglementation gouvernementale, ils affirment que cela devrait être fait au niveau fédéral, de manière plus spécifique.

Le projet de loi est largement considéré comme crucial pour la manière dont la technologie sera réglementée aux États-Unis, car La Californie abrite de nombreuses sociétés d’IA et a souvent un effet disproportionné sur les lois des autres États. Les propositions visant à réglementer l’IA au niveau national ont peu progressé à Washington.

Ce que prescrit le projet de loi SB 1047

Le projet de loi californien, appelé SB 1047, exige que les développeurs de grands modèles d’IA effectuent des tests de sécurité pour réduire les risques de « dommages catastrophiques » liés à leur technologie, qu’il définit comme des cyberattaques causant au moins 500 millions de dollars de dommages. Les développeurs ils doivent également s’assurer que leur IA puisse être désactivée par un humain si elle commence à se comporter de manière dangereuse.

La facture s'applique aux modèles d'IA qui atteignent un certain seuil de puissance de calcul et coûtent plus de 100 millions de dollars à formerle coût estimé pour former le GPT-4 d'OpenAI. La disposition affecte toute entreprise opérant en Californie, quel que soit son siège social.

Le SB 1047 a été adopté par le Sénat de Californie et deux comités de l'Assemblée de l'État avec peu d'opposition. Les opposants espèrent bloquer son adoption par la Chambre plénière maintenant que l'Assemblée législative contrôlée par les Démocrates est de retour en session cette semaine. Le bureau du gouverneur démocrate Gavin Newsom Il n'a pas répondu à la question de savoir s'il signerait le projet de loi s'il était adopté.

L’opinion négative des industries

« S'il devait entrer en vigueur tel qu'il est écrit, cela aurait un effet dissuasif sur l'innovation en Californie », a déclaré Luther Lowe, responsable des politiques publiques de l'accélérateur de start-up Y Combinator, qui a joué un rôle important dans les efforts de lobbying contre la facture.

Aussi Métaplateformes Et OpenAI ont fait part de leurs inquiétudes concernant le SB 1047, tandis que Google, Microsoft et Anthropique ont proposé des changements substantiels.

Scott Wiener, sénateur démocrate de l'État de San Francisco et auteur du projet de loi, a déclaré qu'il discutait avec l'industrie technologique et qu'il était ouvert aux changements. « Il y a des gens dans l'industrie technologique qui s'opposent à toute forme de réglementation, quelle qu'elle soit, même pour quelque chose de raisonnable et léger », a-t-il déclaré.

Autres lois sur l'IA aux États-Unis

Le Colorado et l'Utah ont récemment adopté certaines des premières lois de réglementation de l'IA du pays, mais elles sont plus limitées que le SB 1047 de Californie. Environ 400 projets de loi liés à l'IA sont actuellement déposés dans les législatures des États américains, selon la Transparency Coalition, une organisation à but non lucratif qui milite en faveur de la réglementation des données sur lesquelles les modèles d'IA sont formés. Environ 30 projets de loi sont à différents stades de l'Assemblée législative de Californie, avec des objectifs allant de la protection des droits de propriété intellectuelle à l'élargissement de la définition de la pédopornographie pour inclure les images générées par l'IA.

Le SB 1047 a suscité une forte opposition de l'industrie. Le projet de loi refléterait un cadre de tests de sécurité qu’OpenAI, Anthropic et d’autres sociétés d’IA ont volontairement adopté l’année dernière. Les opposants affirment que le projet de loi ne précise pas quels seraient ces tests ni qui ferait partie d'une nouvelle commission chargée de superviser la conformité.

« Les éléments cruciaux qui devraient sous-tendre l'architecture réglementaire du projet de loi ne sont pas encore en place, ce qui risque d'entraîner des investissements mal placés, des résultats trompeurs et une occasion manquée de concentrer les ressources », a-t-il déclaré. Microsoft dans une lettre exposant ses objections au projet de loi.

Une autre préoccupation des opposants est l'interdiction faite au projet de loi de diffuser de grands modèles d'IA « s'il existe un risque déraisonnable » qu'ils puissent « causer ou permettre un préjudice critique ».

« Cette norme vague crée un champ de mines juridique », a-t-il déclaré. Anjney Midhapartenaire de la société de capital-risque Andreessen Horowitz qui se concentre sur l'IA. « La technologie actuelle ne peut tout simplement pas garantir contre ces scénarios hypothétiques. »

Midha a déclaré que le projet de loi découragerait les grands développeurs de rendre leurs modèles accessibles au public, fragmentant ainsi un écosystème de start-up qui repose sur une telle ouverture pour innover.

Wiener a déclaré que le projet de loi codifie uniquement les normes de sécurité que l'industrie a établies elle-même. « Ce n'est pas trop prescriptif », a-t-il déclaré.

Partisans du SB 1047

Plusieurs chercheurs en informatique et juristes, dont Geoffrey Hinton Et Yoshua Bengioqui a développé une grande partie de la technologie sur laquelle repose la vague actuelle d’IA générative, ils ont cosigné une lettre à Newsom en soutien au SB 1047. « Ce serait une erreur historique d'éliminer les dispositions fondamentales de ce projet de loi, une erreur qui deviendra encore plus évidente d'ici un an, à mesure que la prochaine génération de systèmes d'IA encore plus performants sera lancée », indique la lettre.

Wiener a défendu son projet de loi devant une salle remplie de fondateurs de startups et de chercheurs en IA au siège de Y Combinator à San Francisco fin juillet. « Il y a eu des exagérations significatives concernant l'ampleur de la responsabilité des développeurs de modèles », a-t-il déclaré à l'auditoire, y compris une fausse rumeur selon laquelle les développeurs iraient en prison si un acteur malveillant utilisait mal leur technologie.

Cependant, beaucoup ne semblaient pas convaincus. « Il y a des clauses là-dedans et, honnêtement, en tant que développeur d'IA, je n'ai aucune idée de leur utilité », a-t-il déclaré. Andrew Ngprofesseur d'informatique à l'université de Stanford, qui a cofondé l'équipe de recherche sur l'apprentissage profond de Google.