La Maison Blanche dévoile la « déclaration des droits » de l'intelligence artificielle

La Maison Blanche dévoile la « déclaration des droits » de l’intelligence artificielle

Alondra Nelson prend la parole lors d’un événement au Queen Theatre, le 16 janvier 2021, à Wilmington, Del. Le mardi 4 octobre 2022, l’administration Biden a dévoilé un ensemble d’objectifs ambitieux pour aligner les outils alimentés par l’intelligence artificielle avec ce qu’il a appelé les valeurs de démocratie et d’équité, y compris des lignes directrices sur la manière de protéger les données personnelles des personnes et de limiter la surveillance. « Nous pouvons et devons nous attendre à mieux et exiger mieux de nos technologies », a déclaré Nelson, directeur adjoint pour la science et la société au Bureau de la politique scientifique et technologique de la Maison Blanche. Crédit : AP Photo/Matt Slocum, fichier

L’administration Biden a dévoilé mardi un ensemble d’objectifs ambitieux pour aligner les outils basés sur l’intelligence artificielle sur ce qu’elle appelle les valeurs de démocratie et d’équité, y compris des directives sur la manière de protéger les données personnelles des personnes et de limiter la surveillance.

Le Blueprint for an AI Bill of Rights ne définit notamment pas de mesures d’application spécifiques, mais se veut plutôt un appel à l’action de la Maison Blanche pour que le gouvernement américain protège les droits numériques et civils dans un monde alimenté par l’IA, ont déclaré des responsables.

« C’est l’administration Biden-Harris qui dit vraiment que nous devons travailler ensemble, non seulement au sein du gouvernement, mais dans tous les secteurs, pour vraiment mettre l’équité au centre et les droits civils au centre des façons dont nous fabriquons et utilisons et gouverner les technologies », a déclaré Alondra Nelson, directrice adjointe pour la science et la société au Bureau de la politique scientifique et technologique de la Maison Blanche. « Nous pouvons et devons nous attendre à mieux et exiger mieux de nos technologies. »

Le bureau a déclaré que le livre blanc représentait une avancée majeure dans le programme de l’administration visant à responsabiliser les entreprises technologiques, et a souligné les engagements de diverses agences fédérales à peser les nouvelles règles et à étudier les impacts spécifiques des technologies d’IA. Le document a émergé après une consultation d’un an avec plus de deux douzaines de départements différents, et intègre également les commentaires des technologues, des groupes de la société civile, des entreprises et des chercheurs de l’industrie.

Les principes non contraignants qui en résultent citent des recherches universitaires, des études d’agences et des reportages qui ont documenté les dommages réels causés par des outils alimentés par l’IA, y compris des outils de reconnaissance faciale qui ont contribué à des arrestations injustifiées et un système automatisé qui discrimine les demandeurs de prêt qui ont assisté à un historiquement. Black College ou Université.

Le livre blanc a également déclaré que les parents et les travailleurs sociaux pourraient bénéficier de savoir si les agences de protection de l’enfance utilisaient des algorithmes pour aider à décider quand les familles devraient faire l’objet d’une enquête pour maltraitance.

Plus tôt cette année, après la publication d’un Revue AP d’un outil algorithmique utilisé dans un système de protection de l’enfance de Pennsylvanie, les membres du personnel de l’OSTP ont contacté les sources citées dans l’article pour en savoir plus, selon plusieurs personnes qui ont participé à l’appel. L’enquête d’AP a révélé que l’outil du comté d’Allegheny au cours de ses premières années de fonctionnement montrait une tendance à signaler un nombre disproportionné d’enfants noirs pour une enquête de négligence « obligatoire », par rapport aux enfants blancs.

En mai, des sources ont déclaré que des chercheurs de l’Université Carnegie Mellon et des membres du personnel de l’American Civil Liberties Union se sont entretenus avec des responsables de l’OSTP au sujet de l’utilisation des algorithmes par les agences de protection de l’enfance. Nelson a déclaré que la protection des enfants contre les dommages technologiques reste un sujet de préoccupation.

« Si un outil ou un système automatisé nuit de manière disproportionnée à une communauté vulnérable, il devrait y avoir, on l’espère, qu’il y aurait des leviers et des opportunités pour y remédier grâce à certaines des applications spécifiques et des suggestions prescriptives », a déclaré Nelson, qui sert également en tant qu’assistant adjoint du président Joe Biden.

L’OSTP n’a pas fourni de commentaires supplémentaires sur la réunion de mai.

Néanmoins, étant donné que de nombreux outils alimentés par l’IA sont développés, adoptés ou financés au niveau des États et au niveau local, le gouvernement fédéral exerce une surveillance limitée concernant leur utilisation. Le livre blanc ne fait aucune mention spécifique de la manière dont l’administration Biden pourrait influencer des politiques spécifiques aux niveaux national ou local, mais un haut responsable de l’administration a déclaré que l’administration explorait comment aligner les subventions fédérales sur les directives de l’IA.

Le livre blanc n’a pas non plus abordé spécifiquement les technologies alimentées par l’IA financées par le ministère de la Justice, dont la division des droits civils a examiné séparément les préjudices algorithmiques, les préjugés et la discrimination, a déclaré Nelson.

Niché entre les appels à une plus grande surveillance, le livre blanc a également déclaré que lorsqu’ils sont correctement mis en œuvre, les systèmes d’IA ont le pouvoir d’apporter des avantages durables à la société, comme aider les agriculteurs à cultiver des aliments plus efficacement ou à identifier les maladies.

« Alimentés par la puissance de l’innovation américaine, ces outils ont le potentiel de redéfinir chaque partie de notre société et d’améliorer la vie de tous. Ces progrès importants ne doivent pas se faire au prix des droits civils ou des valeurs démocratiques », indique le document.