La Californie promulgue la loi sur la sécurité de l'IA ciblant les géants de la technologie

La Californie promulgue la loi sur la sécurité de l'IA ciblant les géants de la technologie

Le gouverneur de Californie, Gavin Newsom, a signé la loi révolutionnaire en matière de révolution, obligeant les plus grandes sociétés de renseignement artificielles au monde à divulguer publiquement leurs protocoles de sécurité et à signaler des incidents critiques, ont annoncé lundi les législateurs de l'État.

Le projet de loi du Sénat 53 marque la décision la plus importante de la Californie à encore réglementer l'industrie de l'IA de la Silicon Valley, tout en conservant sa position de centre technologique mondial.

« Avec une technologie aussi transformatrice que l'IA, nous avons la responsabilité de soutenir cette innovation tout en mettant en place des garde-corps de bon sens », a déclaré le sénateur de l'État Scott Wiener, le sponsor du projet de loi, dans un communiqué.

La nouvelle loi représente une deuxième tentative réussie de Wiener d'établir des règlements sur la sécurité de l'IA après que Newsom ait opposé son veto à son projet de loi précédent, SB 1047, après un recul furieux de l'industrie technologique.

Il vient également après une tentative ratée de l'administration Trump d'empêcher les États de promulguer des réglementations sur l'IA, en vertu de l'argument selon lequel ils créeraient le chaos réglementaire et ralentiraient l'innovation de fabrication américaine dans une course avec la Chine.

La nouvelle loi affirme que les grandes sociétés d'IA doivent divulguer publiquement leurs protocoles de sécurité et de sécurité sous forme expurgée pour protéger la propriété intellectuelle.

Ils doivent également signaler des incidents de sécurité essentiels – y compris les menaces d'armes compatibles avec des modèles, les cyberattaques majeures ou la perte de contrôle du modèle – dans 15 jours aux responsables de l'État.

La législation établit également des protections de dénonciation pour les employés qui révèlent des preuves de dangers ou de violations.

Selon Wiener, l'approche de la Californie diffère de la loi historique de l'IA de l'Union européenne, qui nécessite des divulgations privées aux agences gouvernementales.

Le SB 53, quant à lui, exige la divulgation publique pour assurer une plus grande responsabilité.

Dans ce que les défenseurs décrivent comme une première disposition mondiale, la loi oblige les entreprises à signaler les cas où les systèmes d'IA se livrent à un comportement trompeur dangereux pendant les tests.

Par exemple, si un système d'IA réside sur l'efficacité des contrôles conçus pour l'empêcher d'aider à la construction des armes bio-armes, les développeurs doivent divulguer l'incident s'il augmente considérablement les risques de préjudice catastrophique.

Le groupe de travail derrière la loi a été dirigé par des experts éminents, dont Fei-Fei Li de l'Université de Stanford, connu sous le nom de «marraine de l'IA».