Les chercheurs suggèrent un précédent historique pour la recherche éthique sur l’IA
Si nous entraînons les systèmes d’intelligence artificielle (IA) sur des données biaisées, ils peuvent, à leur tour, porter des jugements biaisés qui affectent les décisions d’embauche, les demandes de prêt et les prestations sociales, pour ne citer que quelques implications concrètes. Alors que cette technologie en développement rapide peut avoir des conséquences qui changent la vie, comment pouvons-nous garantir que les humains entraînent les systèmes d’IA sur des données qui reflètent de solides principes éthiques ?
Une équipe multidisciplinaire de chercheurs du National Institute of Standards and Technology (NIST) suggère que nous avons déjà une réponse pratique à cette question : nous devrions appliquer les mêmes principes de base que ceux que les scientifiques ont utilisés pendant des décennies pour protéger la recherche sur des sujets humains.
Ces trois principes – résumés par « respect des personnes, bienfaisance et justice » – sont les idées centrales du rapport Belmont de 1979, un document décisif qui a influencé la politique du gouvernement américain en matière de recherche sur des sujets humains.
L’équipe a publié ses travaux dans le numéro de février de la revue Ordinateur. Bien que l’article soit le propre travail des auteurs et ne constitue pas une orientation officielle du NIST, il s’inscrit dans le cadre des efforts plus vastes du NIST visant à soutenir le développement d’une IA fiable et responsable.
« Nous avons examiné les principes existants de la recherche sur les sujets humains et exploré comment ils pourraient s’appliquer à l’IA », a déclaré Kristen Greene, spécialiste des sciences sociales au NIST et l’un des auteurs de l’article. « Il n’est pas nécessaire de réinventer la roue. Nous pouvons appliquer un paradigme établi pour nous assurer que nous sommes transparents avec les participants à la recherche, car leurs données peuvent être utilisées pour entraîner l’IA. »
Le rapport Belmont est né d’un effort visant à répondre à des études de recherche contraires à l’éthique, telles que l’étude de Tuskegee sur la syphilis, impliquant des sujets humains. En 1974, les États-Unis ont créé la Commission nationale pour la protection des sujets humains de recherche biomédicale et comportementale, et ont identifié les principes éthiques de base pour la protection des personnes dans les études de recherche.
Une réglementation fédérale américaine a ensuite codifié ces principes dans la Common Rule de 1991, qui exige que les chercheurs obtiennent le consentement éclairé des participants à la recherche. Adoptée par de nombreux ministères et organismes fédéraux, la Règle commune a été révisée en 2017 pour tenir compte des changements et évolutions de la recherche.
Il existe cependant une limite au rapport Belmont et à la règle commune : les réglementations qui exigent l’application des principes du rapport Belmont s’appliquent uniquement à la recherche gouvernementale. L’industrie n’est cependant pas liée par ces règles.
Les auteurs du NIST suggèrent que les concepts soient appliqués plus largement à toutes les recherches incluant des sujets humains. Les bases de données utilisées pour entraîner l’IA peuvent contenir des informations extraites du Web, mais les personnes qui sont à l’origine de ces données peuvent ne pas avoir consenti à leur utilisation, ce qui constitue une violation du principe du « respect des personnes ».
« Pour le secteur privé, il s’agit de choisir d’adopter ou non des principes d’évaluation éthique », a déclaré Greene.
Alors que le rapport Belmont s’inquiétait en grande partie de l’inclusion inappropriée de certaines personnes, les auteurs du NIST mentionnent qu’une préoccupation majeure de la recherche sur l’IA est l’exclusion inappropriée, qui peut créer un biais dans un ensemble de données contre certaines données démographiques. Des recherches antérieures ont montré que les algorithmes de reconnaissance faciale formés principalement sur un groupe démographique seront moins capables de distinguer les individus appartenant à d’autres groupes démographiques.
Appliquer les trois principes du rapport à la recherche sur l’IA pourrait être assez simple, suggèrent les auteurs. Le respect des personnes exigerait que les sujets donnent leur consentement éclairé sur ce qui arrive à eux et à leurs données, tandis que la bienfaisance impliquerait que les études soient conçues pour minimiser les risques pour les participants. La justice exigerait que les sujets soient sélectionnés équitablement, dans le but d’éviter une exclusion inappropriée.
Greene a déclaré que le document est mieux considéré comme un point de départ pour une discussion sur l’IA et nos données, une discussion qui aidera les entreprises et les personnes qui utilisent leurs produits.
« Nous ne préconisons pas davantage de réglementation gouvernementale. Nous prônons la réflexion », a-t-elle déclaré. « Nous devrions le faire parce que c’est la bonne chose à faire. »
