Le gouverneur de Californie oppose son veto au projet de loi sur la sécurité de l'IA
Le gouverneur de Californie, Gavin Newsom, a opposé son veto à un projet de loi visant à réglementer de puissants modèles d'intelligence artificielle, suite aux réactions des géants de la technologie et aux critiques qui affirmaient que la loi allait trop loin.
Le projet de loi a fait face à de nombreuses critiques, notamment des membres du Congrès américain du parti démocrate de Newsom, qui ont fait valoir que les menaces de mesures punitives contre les développeurs dans un domaine naissant freineraient l'innovation.
Dans un communiqué publié dimanche, Newsom a reconnu que le SB-1047 était « bien intentionné », mais s'est dit préoccupé par le fait que le projet de loi était trop « strict » et injustement axé sur « les modèles les plus chers et les plus à grande échelle ».
« Le projet de loi applique des normes strictes même aux fonctions les plus élémentaires, à condition qu'un grand système le déploie », a noté le gouverneur.
Il a ajouté que « des modèles plus petits et spécialisés pourraient s'avérer tout aussi dangereux, voire plus, que les modèles visés par le SB 1047, au détriment potentiel de l'innovation même qui alimente le progrès en faveur du bien public ».
Le parrain du projet de loi, le sénateur démocrate Scott Wiener de San Francisco, a déploré ce « revers », affirmant qu'il laissait la sécurité de l'IA entre les mains des géants de la technologie qui se précipitent pour lancer la technologie.
Wiener espérait que le projet de loi fixerait des règles pour les géants de l'IA dans l'État d'origine de la Silicon Valley, comblant ainsi un vide laissé par Washington, où un Congrès politiquement divisé peine à adopter une législation.
« Ce veto nous laisse face à la réalité troublante que les entreprises visant à créer une technologie extrêmement puissante ne sont confrontées à aucune restriction contraignante de la part des décideurs politiques américains, en particulier compte tenu de la paralysie persistante du Congrès quant à la réglementation significative de l'industrie technologique », a écrit Wiener sur X.
Le projet de loi de l'État de Californie aurait exigé que les développeurs de grands modèles d'IA « frontières » prennent des précautions telles que des tests préalables au déploiement, la simulation d'attaques de pirates informatiques, l'installation de mesures de cybersécurité et la protection des lanceurs d'alerte.
Pour garantir l'adoption de la législation, les législateurs ont apporté plusieurs changements, notamment en remplaçant les sanctions pénales en cas d'infraction par des sanctions civiles telles que des amendes.
Cependant, l’opposition persiste, notamment de la part de personnalités influentes comme la députée démocrate Nancy Pelosi.
OpenAI, le créateur de ChatGPT, s'est également opposé au projet de loi, préférant des règles nationales plutôt qu'un patchwork de réglementations sur l'IA dans les 50 États américains.
Au moins 40 États ont présenté cette année des projets de loi pour réglementer l'IA, et une demi-douzaine ont adopté des résolutions ou promulgué des lois visant cette technologie, selon la Conférence nationale des législatures des États.
Le projet de loi a reçu le soutien réticent d'Elon Musk, qui a soutenu que le risque que représente l'IA pour le public justifie une réglementation, ainsi que d'éminents chercheurs en IA comme Geoffrey Hinton et Yoshua Bengio.
Dan Hendrycks, directeur du Center for AI Safety, a déclaré que même si le veto était « décevant », le débat autour du projet de loi « a commencé à déplacer la conversation sur la sécurité de l'IA vers le grand public, là où elle appartient ».
Il a ajouté sur X que le projet de loi a « révélé que certains appels de l'industrie en faveur d'une IA responsable ne sont rien de plus qu'une couverture médiatique de leurs stratégies commerciales et d'investissement ».