Comment les États placent des garde-corps autour de l'IA en l'absence de réglementation fédérale forte

Comment les États placent des garde-corps autour de l'IA en l'absence de réglementation fédérale forte

Les législatures des États américaines sont l'endroit où l'action consiste à placer des garde-corps autour des technologies de l'intelligence artificielle, étant donné le manque de réglementation fédérale significative. La défaite retentissante au Congrès d'un moratoire proposé sur la réglementation de l'IA au niveau de l'État signifie que les États sont libres de continuer à combler le vide.

Plusieurs États ont déjà promulgué une législation sur l'utilisation de l'IA. Les 50 États ont introduit diverses législations liées à l'IA en 2025.

Quatre aspects de l'IA en particulier se distinguent d'un point de vue réglementaire: l'utilisation du gouvernement de l'IA, l'IA dans les soins de santé, la reconnaissance faciale et l'IA générative.

Utilisation du gouvernement de l'IA

La surveillance et l'utilisation responsable de l'IA sont particulièrement essentielles dans le secteur public. L'IA prédictive – AI qui effectue une analyse statistique pour faire des prévisions – a transformé de nombreuses fonctions gouvernementales, de la détermination de l'admissibilité aux services sociaux à des recommandations sur la condamnation et la libération conditionnelle en justice pénale.

Mais l'utilisation généralisée de la prise de décision algorithmique pourrait avoir des coûts cachés majeurs. Les dommages algorithmiques potentiels posés par les systèmes d'IA utilisés pour les services gouvernementaux comprennent les biais raciaux et de genre.

Reconnaissant le potentiel de préjudice algorithmique, les législatures des États ont introduit des projets de loi axés sur l'utilisation des secteurs public de l'IA, en mettant l'accent sur la transparence, les protections des consommateurs et la reconnaissance des risques du déploiement de l'IA.

Plusieurs États ont obligé les développeurs d'IA à divulguer les risques posés par leurs systèmes. Le Colorado Artificial Intelligence Act comprend des exigences de transparence et de divulgation pour les développeurs de systèmes d'IA impliqués dans la prise de décisions conséquentes, ainsi que pour ceux qui les déploient.

Le nouveau «droit de calcul» du Montana définit les exigences que les développeurs de l'IA adoptent des cadres de gestion des risques – méthodes pour lutter contre la sécurité et la confidentialité dans le processus de développement – pour les systèmes d'IA impliqués dans les infrastructures critiques. Certains États ont établi des organismes qui fournissent une autorité de surveillance et de réglementation, tels que ceux spécifiés dans le projet de loi SB 8755 de New York.

IA dans les soins de santé

Dans la première moitié de 2025, 34 États ont introduit plus de 250 factures de santé liées à l'IA. Les factures se répartissent généralement en quatre catégories: les exigences de divulgation, la protection des consommateurs, l'utilisation par les assureurs de l'IA et de l'utilisation des cliniciens de l'IA.

Les projets de loi sur la transparence définissent les exigences d'information que les développeurs et les organisations du système d'IA qui déploient les systèmes divulguent.

Les factures de protection des consommateurs visent à empêcher les systèmes d'IA de discriminer injustement à certaines personnes et à garantir que les utilisateurs des systèmes ont un moyen de contester les décisions prises en utilisant la technologie.

Les factures couvrant les assureurs assurent la surveillance de l'utilisation par les payeurs de l'IA pour prendre des décisions concernant les approbations et les paiements des soins de santé. Et les factures sur les utilisations cliniques de l'IA régulent l'utilisation de la technologie dans le diagnostic et le traitement des patients.

Reconnaissance faciale et surveillance

Aux États-Unis, une doctrine juridique de longue date qui s'applique aux problèmes de protection de la vie privée, y compris la surveillance faciale, est de protéger l'autonomie individuelle contre les interférences du gouvernement. Dans ce contexte, les technologies de reconnaissance faciale posent des défis de confidentialité importants ainsi que des risques provenant de biais potentiels.

Le logiciel de reconnaissance faciale, couramment utilisé dans la police prédictive et la sécurité nationale, a présenté des préjugés contre les personnes de couleur et est donc souvent considéré comme une menace pour les libertés civiles. Une étude révolutionnaire des informaticiens Joy Buolamwini et Timnit Gebru a révélé que le logiciel de reconnaissance faciale pose des défis importants pour les Noirs et d'autres minorités historiquement défavorisées. Le logiciel de reconnaissance faciale était moins susceptible d'identifier correctement les visages plus sombres.

Les biais se glissent également dans les données utilisées pour former ces algorithmes, par exemple lorsque la composition des équipes qui guide le développement de ces logiciels de reconnaissance faciale manquent de diversité.

À la fin de 2024, 15 États aux États-Unis avaient promulgué des lois pour limiter les dommages potentiels de la reconnaissance faciale. Certains éléments des réglementations au niveau de l'État sont des exigences sur les fournisseurs pour publier les rapports de test de biais et les pratiques de gestion des données, ainsi que la nécessité d'une revue humaine dans l'utilisation de ces technologies.

Modèles génératifs de l'IA et de la fondation

L'utilisation généralisée de l'IA générative a également suscité les préoccupations des législateurs dans de nombreux États. La loi sur la politique de l'intelligence artificielle de l'Utah oblige les individus et les organisations à divulguer clairement lorsqu'ils utilisent des systèmes d'IA génératifs pour interagir avec quelqu'un lorsque cette personne demande si l'IA est utilisée, bien que la législature ait par la suite réduit la portée des interactions qui pourraient impliquer des conseils ou collecter des informations sensibles.

L'année dernière, la Californie a adopté AB 2013, un droit génératif de l'IA qui oblige les développeurs à publier des informations sur leurs sites Web sur les données utilisées pour former leurs systèmes d'IA, y compris les modèles de fondation. Les modèles de fondation sont tous les modèles d'IA formés sur des ensembles de données extrêmement grands et qui peuvent être adaptés à un large éventail de tâches sans formation supplémentaire.

Les développeurs d'IA n'ont généralement pas été disponibles sur les données de formation qu'ils utilisent. Une telle législation pourrait aider les propriétaires de droits d'auteur sur le contenu utilisé dans la formation de l'IA à surmonter le manque de transparence.

Essayer de combler l'écart

En l'absence d'un cadre législatif fédéral complet, les États ont tenté de combler l'écart en progressant avec leurs propres efforts législatifs. Bien qu'un tel patchwork de lois puisse compliquer les efforts de conformité des développeurs d'IA, je pense que les États peuvent fournir une surveillance importante et nécessaire sur la vie privée, les droits civils et les protections des consommateurs.

Pendant ce temps, l'administration Trump a annoncé son plan d'action sur l'IA le 23 juillet 2025. Le plan affirme que « le gouvernement fédéral ne devrait pas permettre de permettre un financement fédéral lié à l'IA vers des États avec des réglementations sur l'IA … ».

Cette décision pourrait entraver les efforts de l'État pour réglementer l'IA si les États devaient peser des réglementations qui pourraient retenir la définition de l'administration de lourdement contre le financement fédéral nécessaire pour l'IA.