Un moyen de régir l’utilisation éthique de l’intelligence artificielle sans entraver l’avancement
Les chercheurs de la Texas A&M University School of Public Health développent un nouveau modèle de gouvernance pour l’orientation et l’application éthiques dans le domaine en évolution rapide de l’intelligence artificielle (IA). Connu sous le nom de Copyleft AI with Trusted Enforcement, ou CAITE, les chercheurs pensent que ce modèle protégera contre les dommages potentiels de l’IA sans entraver les progrès technologiques.
Cason Schmit, JD, professeur adjoint à l’École de santé publique et directeur du programme en droit et politique de la santé, Megan Doerr de Sage Bionetworks et Jennifer Wager, JD, de Penn State discutent de leur nouveau modèle dans un article récent de la revue Science.
L’intelligence artificielle (IA) promet de révolutionner presque tous les aspects de notre vie quotidienne. Cependant, une mauvaise utilisation des outils basés sur l’IA pourrait causer des dommages, en particulier aux communautés déjà confrontées à l’inégalité et à la discrimination. Ce potentiel de préjudice nécessite des orientations éthiques par le biais de réglementations et de politiques. Mais les progrès rapides de l’IA et la nature souvent inflexible de la réglementation gouvernementale ont rendu difficile la création de telles orientations éthiques.
Schmit, Doerr et Wager ont développé le modèle CAITE pour faire face à ces défis. La CAITE combine des aspects de l’octroi de licences de copyleft et du modèle de troll des brevets, deux méthodes de gestion des droits de propriété intellectuelle qui peuvent être considérées comme incompatibles.
Les licences de copyleft permettent le partage de la propriété intellectuelle dans des conditions telles que l’attribution du créateur original ou une utilisation non commerciale, et les œuvres dérivées doivent utiliser les mêmes conditions de licence que l’original. Les licences Creative Commons sont un type de licence copyleft. Cependant, les systèmes de licences copyleft ont généralement peu de pouvoir d’application.
L’autre côté du modèle CAITE utilise l’approche du troll des brevets, qui utilise les droits d’application pour assurer la conformité. Un troll de brevets est une organisation qui détient des droits de propriété intellectuelle et poursuit d’autres personnes devant les tribunaux afin de générer des revenus plutôt que de créer ou de concéder une technologie sous licence.
Le modèle CAITE est construit sur une licence d’utilisation éthique. Cette licence restreindrait certaines utilisations contraires à l’éthique de l’IA et obligerait les utilisateurs à respecter un code de conduite. Il est important de noter qu’il utiliserait une approche copyleft pour garantir que les développeurs qui créent des modèles et des données dérivés doivent également utiliser les mêmes termes de licence que les travaux parents. La licence attribuerait les droits d’exécution de la licence à un tiers désigné connu sous le nom d’hôte CAITE. De cette manière, les droits d’exécution pour toutes ces licences d’utilisation éthique seraient regroupés dans une seule organisation, donnant à l’hébergeur CAITE le pouvoir de réglementer quasi-gouvernemental l’IA.
« Cette approche combine le meilleur de deux mondes : un modèle aussi rapide et flexible que l’industrie, mais avec le pouvoir d’exécution et le pouvoir d’un régulateur gouvernemental traditionnel », a déclaré Schmit.
Les auteurs notent que l’utilisation d’une partie non gouvernementale désignée par la communauté des développeurs d’IA pourrait permettre une plus grande flexibilité dans l’application et la confiance dans la surveillance. Les hébergeurs CAITE peuvent définir des conséquences pour des actions contraires à l’éthique telles que des sanctions financières ou le signalement de cas de violation de la loi sur la protection des consommateurs.
Dans le même temps, l’approche CAITE permet des politiques de clémence qui peuvent promouvoir l’auto-déclaration et offre une flexibilité qui fait souvent défaut aux programmes d’application gouvernementaux typiques. Par exemple, les incitations pour les utilisateurs d’IA à signaler les biais qu’ils découvrent dans leurs modèles d’IA pourraient permettre à l’hôte CAITE d’avertir les autres utilisateurs d’IA qui s’appuient sur ces modèles d’IA potentiellement dangereux.
Schmit et ses collègues soulignent que l’approche CAITE, bien que flexible, nécessitera la participation d’une grande partie de la communauté de l’IA. De plus, la mise en œuvre pilote de politiques éthiques élaborées à l’aide de l’approche CAITE nécessitera des recherches et des financements supplémentaires. La mise en œuvre de ce modèle s’appuiera également sur les membres de la communauté IA de nombreuses disciplines différentes pour développer ses fonctionnalités et surmonter les défis qui se présentent.
Bien que cela nécessitera une adhésion importante de la communauté et éventuellement des incitations gouvernementales, Schmit et ses collègues déclarent que l’industrie préférera probablement le cadre CAITE plus flexible aux réglementations strictes et lentes à adapter que les gouvernements pourraient éventuellement imposer.
« Les efforts visant à promouvoir une IA éthique et digne de confiance doivent aller au-delà de ce qui est légalement mandaté comme base pour une conduite acceptable », a déclaré Wagner. « Nous pouvons et devons nous efforcer de faire mieux que ce qui est minimalement acceptable. »
Une fois mis en œuvre, le CAITE se prémunira contre les méfaits potentiels de l’IA sans entraver les avancées technologiques. Les chercheurs affirment qu’à mesure que l’IA continue de s’étendre à une plus grande partie de notre vie quotidienne, la valeur d’un cadre éthique réactif deviendra cruciale.