L'expert en droit explique comment l'IA pourrait être régi par un cadre «Equity by Design»

L’expert en droit explique comment l’IA pourrait être régi par un cadre «Equity by Design»

Les approches de la régulation de l’intelligence artificielle (IA), de la création au déploiement et à l’utilisation dans la pratique, varient à l’échelle internationale. Daryl Lim, Penn State Dickinson Law Associate Dean for Research and Innovation, H. Laddie Montague Jr. Chaire en droit et le co-accusation du Penn State Institute for Computational and Data Sciences (ICDS), a proposé un cadre « capitaux propres » de conception « à Better Better gouverner la technologie et protéger les communautés marginalisées contre les préjudices potentiels dans un article publié le 27 janvier dans le Duke Technology Law Review.

Selon LIM, une IA régissant de manière responsable est cruciale pour maximiser les avantages et minimiser les dommages potentiels – qui ont un impact disproportionné aux individus sous-représentés – de ces systèmes. Les cadres de gouvernance aident à aligner le développement de l’IA avec les valeurs sociétales et les normes éthiques dans des régions spécifiques tout en aidant à la conformité réglementaire et à la promotion de la normalisation dans l’industrie.

Lim, qui est également membre consultatif de l’organisme consultatif de haut niveau du secrétaire général des Nations Unies sur l’intelligence artificielle, a également répondu à ce besoin et à la façon dont la gouvernance de l’IA socialement responsable peut avoir un impact sur les communautés marginalisées de l’article publié.

Lim a parlé de la gouvernance de l’IA et de son cadre proposé dans les questions et réponses suivantes.

Que signifie l’IA socialement responsable? Pourquoi est-ce important?

Être socialement responsable de l’IA signifie développer, déployer et utiliser des technologies d’IA de manière éthique, transparente et bénéfique. Cela garantit que les systèmes d’IA respectent les droits de l’homme, confirment l’équité et ne perpétuent pas les biais ou la discrimination. Cette responsabilité s’étend à la responsabilité, à la protection de la vie privée, à l’inclusivité et aux considérations environnementales.

C’est important car l’IA a un impact significatif sur les individus et les communautés. En priorisant la responsabilité sociale, nous pouvons atténuer les risques tels que la discrimination, les biais et les invasions de confidentialité, renforcer la confiance du public et garantir que les technologies de l’IA peuvent contribuer positivement au monde. En incorporant la responsabilité sociale dans la gouvernance de l’IA, nous pouvons favoriser l’innovation tout en protégeant les droits et les intérêts de toutes les parties prenantes.

Comment expliqueriez-vous l’approche «capitaux propres par conception» de la gouvernance de l’IA?

L’équité par conception signifie que nous devrions intégrer des principes d’équité tout au long du cycle de vie de l’IA dans le contexte de la justice et comment l’IA affecte les communautés marginalisées. L’IA a le potentiel d’améliorer l’accès à la justice, en particulier pour les groupes marginalisés. Si quelqu’un qui ne parle pas anglais cherche de l’aide et a accès à un smartphone avec l’accessibilité du chatbot, il peut saisir des questions dans sa langue maternelle et obtenir des informations généralisées dont il a besoin pour commencer.

Il existe également des risques tels que les biais perpétués et les inégalités croissantes, que j’appelle la fracture algorithmique. Dans ce cas, la fracture algorithmique fait référence aux disparités de l’accès aux technologies et à l’éducation de l’IA sur ces outils. Cela comprend les différences entre les individus, les organisations ou les pays dans leur capacité à développer, mettre en œuvre et bénéficier des progrès de l’IA. Nous devons également être conscients des biais qui peuvent être introduits, même involontairement, par les données avec lesquelles ces systèmes sont formés ou par les personnes qui forment les systèmes.

Quel est l’objectif de cette approche de la gouvernance de l’IA?

L’objectif primordial de ce travail est de déplacer l’attention de la gouvernance réactive à la gouvernance proactive en proposant une approche centrée sur les actions qui comprend la transparence et la réglementation sur mesure. L’article vise à aborder les biais structurels dans les systèmes d’IA et les limites des cadres existants, plaidant pour une stratégie complète qui équilibre l’innovation avec des garanties robustes. La recherche explore comment l’IA peut à la fois améliorer l’accès à la justice et à des préjugés enroulés. Cette approche vise à fournir une feuille de route aux décideurs politiques et aux chercheurs juridiques pour naviguer dans les complexités de l’IA tout en garantissant que les progrès technologiques s’alignent avec les valeurs de la société plus larges et de l’état de droit.

Quelles sont les solutions à suggérer pour réaliser davantage une approche équitable de l’IA?

La solution, en partie, réside dans les audits d’actions. Comment pouvons-nous, par conception, assurer qu’avant un algorithme, il y a des chèques et des contrepoids avec les personnes qui créent le système? Les personnes qui choisissent les données peuvent être biaisées et qui peuvent ancrer les inégalités, que le biais se manifeste par le biais racial, le biais de genre ou le biais géographique. Une solution pourrait être d’embaucher un large groupe de personnes ayant une conscience de différents biais et qui peut appeler des préjugés inconscients ou faire examiner la façon dont les systèmes sont mis en œuvre et fournir des commentaires pour améliorer les résultats.

L’article examine également l’impact normatif sur l’état de droit, qui, en l’espèce, consiste à évaluer si nos cadres juridiques actuels relèvent de manière adéquate ces défis ou si des réformes sont nécessaires pour respecter l’état de droit à l’ère de l’IA. Les technologies émergentes comme l’IA peuvent influencer les principes et les valeurs fondamentaux qui sous-tendent notre système juridique. Cela comprend les considérations d’équité, de justice, de transparence et de responsabilité. Les technologies de l’IA peuvent contester les normes juridiques existantes en introduisant de nouvelles complexités dans les processus décisionnels, affectant potentiellement la façon dont les lois sont interprétées et appliquées.

Quelles observations démontrent en outre l’importance d’une approche centrée sur les actions de la gouvernance de l’IA?

En septembre, la «Convention-cadre sur l’intelligence artificielle» a été signée par les États-Unis et l’Union européenne (UE). Ce traité de l’IA a été une étape importante dans la création d’un cadre mondial pour garantir que les systèmes d’IA respectent les droits de l’homme, la démocratie et l’état de droit. Le traité spécifie une approche basée sur les risques, nécessitant une plus grande surveillance des applications d’IA à haut risque dans des secteurs sensibles tels que les soins de santé et la justice pénale.

Le traité détaille également comment différents domaines – en particulier les États-Unis, l’UE, la Chine et Singapour – ont des approches différentes de la gouvernance de l’IA. Les États-Unis sont plus basés sur le marché; L’UE est fondée sur les droits; La Chine suit un modèle d’économie de commandement et Singapour suit un modèle de droit doux, qui sert de cadre plutôt que d’obligations réglementaires exécutoires. Le traité souligne l’importance de la collaboration mondiale pour relever les défis à travers les approches de gouvernance de l’IA.

Mon cadre proposé incorpore les principes de la justice, de l’équité et de l’inclusivité tout au long du cycle de vie de l’IA, qui s’aligne sur les objectifs globaux du traité. Bien que les capitaux propres par conception ne se concentrent pas sur les protections post-implémentation, il souligne que l’IA devrait faire progresser les droits de l’homme pour les communautés marginalisées et qu’il devrait y avoir des audits plus transparents et protecteurs.