L'intelligence artificielle attire l'attention des législateurs des États, et ils ont beaucoup de questions

L’intelligence artificielle attire l’attention des législateurs des États, et ils ont beaucoup de questions

Le logo OpenAI est visible sur un téléphone mobile devant un écran d’ordinateur affichant la sortie de ChatGPT, le 21 mars 2023, à Boston. Alors que les législateurs des États se précipitent pour maîtriser la technologie de l’intelligence artificielle en évolution rapide, ils se concentrent souvent d’abord sur leurs propres gouvernements avant d’imposer des restrictions au secteur privé. Les législateurs cherchent des moyens de protéger les électeurs contre la discrimination et d’autres préjudices sans entraver les avancées de pointe dans les domaines de la médecine, de la science, des affaires, de l’éducation, etc. Crédit : AP Photo/Michael Dwyer, Fichier

Alors que les législateurs des États se précipitent pour maîtriser la technologie de l’intelligence artificielle en évolution rapide, ils se concentrent souvent d’abord sur leurs propres gouvernements avant d’imposer des restrictions au secteur privé.

Les législateurs cherchent des moyens de protéger les électeurs contre la discrimination et d’autres préjudices sans entraver les avancées de pointe dans les domaines de la médecine, de la science, des affaires, de l’éducation, etc.

« Nous commençons avec le gouvernement. Nous essayons de donner le bon exemple », a déclaré le sénateur James Maroney de l’État du Connecticut lors d’un débat au sol en mai.

Le Connecticut prévoit d’inventorier tous ses systèmes gouvernementaux utilisant l’intelligence artificielle d’ici la fin de 2023, en publiant les informations en ligne. Et à partir de l’année prochaine, les responsables de l’État doivent régulièrement revoir ces systèmes pour s’assurer qu’ils ne conduiront pas à une discrimination illégale.

Maroney, un démocrate qui est devenu une autorité incontournable de l’IA à l’Assemblée générale, a déclaré que les législateurs du Connecticut se concentreront probablement sur l’industrie privée l’année prochaine. Il prévoit de travailler cet automne sur une législation modèle sur l’IA avec des législateurs du Colorado, de New York, de Virginie, du Minnesota et d’ailleurs, qui comprend de « larges garde-corps » et se concentre sur des questions telles que la responsabilité des produits et les évaluations d’impact des systèmes d’IA.

« Cela change rapidement et il y a une adoption rapide des personnes qui l’utilisent. Nous devons donc aller de l’avant », a-t-il déclaré dans une interview ultérieure. « Nous sommes en fait déjà derrière, mais nous ne pouvons pas vraiment attendre trop longtemps pour mettre en place une forme de responsabilité. »

Dans l’ensemble, au moins 25 États, Porto Rico et le district de Columbia ont présenté cette année des projets de loi sur l’intelligence artificielle. Fin juillet, 14 États et Porto Rico avaient adopté des résolutions ou promulgué des lois, selon la Conférence nationale des législatures des États. La liste n’inclut pas les factures axées sur des technologies d’IA spécifiques, telles que la reconnaissance faciale ou les voitures autonomes, ce que NCSL suit séparément.

Les législatures du Texas, du Dakota du Nord, de Virginie-Occidentale et de Porto Rico ont créé des organes consultatifs pour étudier et surveiller les systèmes d’IA que leurs agences d’État respectives utilisent, tandis que la Louisiane a formé un nouveau comité de technologie et de cybersécurité pour étudier l’impact de l’IA sur les opérations, les achats et la politique de l’État. . D’autres États ont adopté une approche similaire l’année dernière.

Les législateurs veulent savoir « Qui l’utilise ? Comment l’utilisez-vous ? Il suffit de rassembler ces données pour comprendre ce qui existe, qui fait quoi », a déclaré Heather Morton, une analyse législative au NCSL qui suit l’intelligence artificielle, la cybersécurité, la confidentialité et Internet. questions dans les législatures des États. « C’est quelque chose que les États essaient de comprendre à l’intérieur de leurs propres frontières. »

La nouvelle loi du Connecticut, qui exige que les systèmes d’IA utilisés par les agences d’État soient régulièrement examinés pour détecter une éventuelle discrimination illégale, intervient après qu’une enquête menée par la Media Freedom and Information Access Clinic de la Yale Law School a déterminé que l’IA est déjà utilisée pour affecter des étudiants à des écoles magnétiques, fixer la caution et distribuer les prestations sociales, entre autres tâches. Cependant, les détails des algorithmes sont pour la plupart inconnus du public.

La technologie de l’IA, a déclaré le groupe, « s’est propagée dans tout le gouvernement du Connecticut rapidement et en grande partie sans contrôle, un développement qui n’est pas unique à cet État ».

Richard Eppink, directeur juridique de l’American Civil Liberties Union of Idaho, a témoigné devant le Congrès en mai au sujet de la découverte, par le biais d’un procès, des « algorithmes informatisés secrets » que l’Idaho utilisait pour évaluer les personnes ayant une déficience intellectuelle pour les services de soins de santé financés par le gouvernement fédéral. Le système automatisé, a-t-il déclaré dans un témoignage écrit, comprenait des données corrompues qui reposaient sur des entrées que l’État n’avait pas validées.

L’IA peut être un raccourci pour de nombreuses technologies différentes, allant des algorithmes recommandant ce qu’il faut regarder ensuite sur Netflix aux systèmes d’IA génératifs tels que ChatGPT qui peuvent aider à écrire ou créer de nouvelles images ou d’autres médias. La montée en flèche des investissements commerciaux dans les outils d’IA générative a suscité la fascination du public et des inquiétudes quant à leur capacité à tromper les gens et à répandre la désinformation, entre autres dangers.

Certains États n’ont pas encore tenté de s’attaquer au problème. À Hawaï, le sénateur d’État Chris Lee, un démocrate, a déclaré que les législateurs n’avaient adopté aucune législation cette année régissant l’IA « simplement parce que je pense qu’à l’époque, nous ne savions pas quoi faire ».

L'intelligence artificielle attire l'attention des législateurs des États, et ils ont beaucoup de questions

Le gouverneur du Connecticut, Ned Lamont, prononce le discours sur l’état de l’État lors de la session d’ouverture de l’Assemblée législative, au Capitole de l’État, le 4 janvier 2023, à Hartford, dans le Connecticut. Les législateurs du Connecticut, le mercredi 19 juillet 2023, ont adopté un projet de loi qui place de nouveaux contrôles sur l’utilisation de l’intelligence artificielle par le gouvernement de l’État. Crédit : AP Photo/Jessica Hill, Fichier

Au lieu de cela, la Chambre et le Sénat d’Hawaï ont adopté une résolution proposée par Lee qui exhorte le Congrès à adopter des directives de sécurité pour l’utilisation de l’intelligence artificielle et à limiter son application dans l’utilisation de la force par la police et l’armée.

Lee, vice-président de la commission sénatoriale du travail et de la technologie, a déclaré qu’il espérait présenter un projet de loi à la session de l’année prochaine similaire à la nouvelle loi du Connecticut. Lee souhaite également créer un groupe de travail ou un département permanent pour traiter les questions d’IA avec la bonne expertise, ce qu’il admet être difficile à trouver.

« Il n’y a pas beaucoup de personnes travaillant actuellement au sein des gouvernements des États ou des institutions traditionnelles qui ont ce genre d’expérience », a-t-il déclaré.

L’Union européenne est le chef de file mondial dans la construction de garde-fous autour de l’IA. Il y a eu des discussions sur une législation bipartite sur l’IA au Congrès, qui, selon le chef de la majorité au Sénat, Chuck Schumer, en juin, maximiserait les avantages de la technologie et atténuerait les risques importants.

Pourtant, le sénateur de New York ne s’est pas engagé sur des détails précis. En juillet, le président Joe Biden a annoncé que son administration avait obtenu des engagements volontaires de sept entreprises américaines destinées à garantir la sécurité de leurs produits d’IA avant de les commercialiser.

Maroney a déclaré qu’idéalement, le gouvernement fédéral ouvrirait la voie à la réglementation de l’IA. Mais il a dit que le gouvernement fédéral ne peut pas agir à la même vitesse qu’une législature d’État.

« Et comme nous l’avons vu avec la confidentialité des données, il a vraiment fallu que cela sorte des États », a déclaré Maroney.

Certains projets de loi au niveau des États proposés cette année ont été étroitement adaptés pour répondre à des préoccupations spécifiques liées à l’IA. Des propositions dans le Massachusetts imposeraient des limites aux prestataires de santé mentale utilisant l’IA et empêcheraient les « environnements de travail dystopiques » où les travailleurs n’ont aucun contrôle sur leurs données personnelles. Une proposition à New York imposerait des restrictions aux employeurs utilisant l’IA comme « outil de décision d’emploi automatisé » pour filtrer les candidats à un emploi.

Le Dakota du Nord a adopté un projet de loi définissant ce qu’est une personne, précisant que le terme n’inclut pas l’intelligence artificielle. Le gouverneur républicain Doug Burgum, un candidat de longue date à la présidentielle, a déclaré que de tels garde-fous étaient nécessaires pour l’IA, mais la technologie devrait toujours être adoptée pour rendre le gouvernement de l’État moins redondant et plus réactif aux citoyens.

En Arizona, la gouverneure démocrate Katie Hobbs a opposé son veto à une législation qui interdirait aux machines à voter d’avoir un logiciel d’intelligence artificielle. Dans sa lettre de veto, Hobbs a déclaré que le projet de loi « tente de résoudre des défis auxquels notre État n’est pas actuellement confronté ».

À Washington, la sénatrice démocrate Lisa Wellman, ancienne analyste et programmeuse de systèmes, a déclaré que les législateurs des États doivent se préparer à un monde dans lequel les systèmes de machines deviennent de plus en plus répandus dans notre vie quotidienne.

Elle prévoit de déployer une législation l’année prochaine qui obligerait les étudiants à suivre des cours d’informatique pour obtenir leur diplôme d’études secondaires.

« L’IA et l’informatique sont désormais, dans mon esprit, un élément fondamental de l’éducation », a déclaré Wellman. « Et nous devons vraiment comprendre comment l’intégrer. »