Le décret de l’administration Biden s’attaque aux risques liés à l’IA, mais le manque de lois sur la protection de la vie privée limite la portée
L’ensemble complet, voire radical, de lignes directrices pour l’intelligence artificielle que la Maison Blanche a dévoilées dans un décret du 30 octobre 2023, montre que le gouvernement américain tente de faire face aux risques posés par l’IA.
En tant que chercheur en systèmes d’information et en IA responsable, je pense que le décret représente une étape importante dans la construction d’une IA responsable et digne de confiance.
Cette ordonnance ne constitue toutefois qu’une étape et laisse en suspens la question d’une législation complète sur la protection des données. Sans de telles lois, les gens courent un plus grand risque que les systèmes d’IA révèlent des informations sensibles ou confidentielles.
Comprendre les risques de l’IA
La technologie est généralement évaluée en termes de performances, de coûts et de qualité, mais souvent pas d’équité, d’équité et de transparence. En réponse, les chercheurs et les praticiens de l’IA responsable ont plaidé pour :
Le National Institute of Standards and Technology (NIST) a publié en janvier 2023 un cadre complet de gestion des risques liés à l’IA qui vise à résoudre bon nombre de ces problèmes. Le cadre sert de fondement à une grande partie du décret de l’administration Biden. Le décret autorise également le ministère du Commerce, siège du NIST au sein du gouvernement fédéral, à jouer un rôle clé dans la mise en œuvre des directives proposées.
Les chercheurs en éthique de l’IA préviennent depuis longtemps qu’un audit plus rigoureux des systèmes d’IA est nécessaire pour éviter de donner l’impression d’un examen minutieux sans véritable responsabilité. Dans l’état actuel des choses, une étude récente portant sur les divulgations publiques des entreprises a révélé que les allégations concernant les pratiques éthiques de l’IA dépassent les initiatives réelles en matière d’éthique de l’IA. Le décret pourrait aider en précisant les moyens de faire respecter les responsabilités.
Une autre initiative importante décrite dans le décret consiste à rechercher les vulnérabilités des modèles d’IA à très grande échelle et à usage général, formés sur d’énormes quantités de données, tels que les modèles qui alimentent ChatGPT ou DALL-E d’OpenAI. L’ordonnance oblige les entreprises qui construisent de grands systèmes d’IA susceptibles d’affecter la sécurité nationale, la santé publique ou l’économie à effectuer une équipe rouge et à communiquer les résultats au gouvernement. L’équipe rouge utilise des méthodes manuelles ou automatisées pour tenter de forcer un modèle d’IA à produire des résultats nuisibles, par exemple en faisant des déclarations offensantes ou dangereuses, comme des conseils sur la façon de vendre des drogues.
Il est important de rendre compte au gouvernement étant donné qu’une étude récente a révélé que la plupart des entreprises qui fabriquent ces systèmes d’IA à grande échelle manquent de transparence.
De la même manière, le public risque d’être trompé par le contenu généré par l’IA. Pour résoudre ce problème, le décret ordonne au ministère du Commerce d’élaborer des lignes directrices pour l’étiquetage du contenu généré par l’IA. Les agences fédérales seront tenues d’utiliser le filigrane IA, une technologie qui marque le contenu comme généré par l’IA afin de réduire la fraude et la désinformation, bien que cela ne soit pas obligatoire pour le secteur privé.
Le décret reconnaît également que les systèmes d’IA peuvent présenter des risques inacceptables de préjudice aux droits civils et humains et au bien-être des individus : « Les systèmes d’intelligence artificielle déployés de manière irresponsable ont reproduit et intensifié les inégalités existantes, provoqué de nouveaux types de discrimination préjudiciable et exacerbé les inégalités en ligne. et des préjudices physiques. »
Ce que le décret ne fait pas
L’un des principaux défis de la réglementation de l’IA est l’absence d’une législation fédérale complète sur la protection des données et de la vie privée. Le décret appelle uniquement le Congrès à adopter une législation sur la protection de la vie privée, mais il ne fournit pas de cadre législatif. Il reste à voir comment les tribunaux interpréteront les directives du décret à la lumière des lois existantes sur la vie privée et les droits des consommateurs en matière de données.
Sans des lois strictes sur la confidentialité des données aux États-Unis, comme dans d’autres pays, le décret pourrait avoir un effet minime pour inciter les entreprises d’IA à renforcer la confidentialité des données. De manière générale, il est difficile de mesurer l’impact des systèmes d’IA décisionnels sur la confidentialité et les libertés des données.
Il convient également de noter que la transparence algorithmique n’est pas une panacée. Par exemple, le règlement général sur la protection des données de l’Union européenne exige « des informations significatives sur la logique impliquée » dans les décisions automatisées. Cela suggère un droit à une explication des critères que les algorithmes utilisent dans leur prise de décision. Le mandat traite le processus de prise de décision algorithmique comme un livre de recettes, ce qui signifie qu’il suppose que si les gens comprennent comment fonctionne la prise de décision algorithmique, ils peuvent comprendre comment le système les affecte. Mais savoir comment fonctionne un système d’IA ne vous indique pas nécessairement pourquoi il a pris une décision particulière.
Alors que la prise de décision algorithmique devient omniprésente, le décret de la Maison Blanche et le sommet international sur la sécurité de l’IA soulignent que les législateurs commencent à comprendre l’importance de la réglementation de l’IA, même en l’absence d’une législation complète.