Qu’est-ce que « l’IA éthique » et comment les entreprises peuvent-elles y parvenir ?
La ruée vers le déploiement de puissantes nouvelles technologies d’IA génératives, telles que ChatGPT, a sonné l’alarme sur les dommages potentiels et les abus. La réponse glaciale de la loi à de telles menaces a incité les entreprises qui développent ces technologies à mettre en œuvre l’IA « de manière éthique ».
Mais qu’est ce que ca signifie exactement?
La réponse simple serait d’aligner les opérations d’une entreprise sur un ou plusieurs des dizaines d’ensembles de principes éthiques de l’IA que les gouvernements, les groupes multipartites et les universitaires ont produits. Mais c’est plus facile à dire qu’à faire.
Nos collègues et nous avons passé deux ans à interroger et à sonder des professionnels de l’éthique de l’IA dans divers secteurs pour essayer de comprendre comment ils cherchaient à parvenir à une IA éthique et ce qu’ils pourraient manquer. Nous avons appris que la poursuite de l’éthique de l’IA sur le terrain consiste moins à appliquer des principes éthiques aux actions de l’entreprise qu’à mettre en œuvre des structures et des processus de gestion qui permettent à une organisation de détecter et d’atténuer les menaces.
Cela risque d’être une nouvelle décevante pour les organisations à la recherche d’orientations sans ambiguïté qui évitent les zones grises, et pour les consommateurs qui espèrent des normes claires et protectrices. Mais cela indique une meilleure compréhension de la manière dont les entreprises peuvent poursuivre une IA éthique.
Aux prises avec des incertitudes éthiques
Notre étude, qui est à la base d’un livre à paraître, s’est concentrée sur les responsables de la gestion des questions d’éthique de l’IA dans les grandes entreprises qui utilisent l’IA. De fin 2017 à début 2019, nous avons interrogé 23 de ces managers. Leurs titres allaient de responsable de la protection de la vie privée et conseiller en matière de protection de la vie privée à un titre nouveau à l’époque mais de plus en plus courant aujourd’hui : responsable de l’éthique des données. Nos conversations avec ces responsables de l’éthique de l’IA ont produit quatre principaux points à retenir.
Premièrement, en plus de ses nombreux avantages, l’utilisation de l’IA par les entreprises présente des risques substantiels, et les entreprises le savent. Les responsables de l’éthique d’IA ont exprimé des préoccupations concernant la confidentialité, la manipulation, les préjugés, l’opacité, les inégalités et le déplacement de la main-d’œuvre. Dans un exemple bien connu, Amazon a développé un outil d’IA pour trier les CV et l’a formé pour trouver des candidats similaires à ceux qu’il avait embauchés dans le passé. La domination masculine dans l’industrie technologique signifiait que la plupart des employés d’Amazon étaient des hommes. L’outil a donc appris à rejeter les candidatures féminines. Incapable de résoudre le problème, Amazon a finalement dû abandonner le projet.
L’IA générative soulève des inquiétudes supplémentaires concernant la désinformation et les discours de haine à grande échelle et le détournement de la propriété intellectuelle.
Deuxièmement, les entreprises qui recherchent une IA éthique le font en grande partie pour des raisons stratégiques. Ils veulent maintenir la confiance entre les clients, les partenaires commerciaux et les employés. Et ils veulent anticiper ou se préparer aux réglementations émergentes. Le scandale Facebook-Cambridge Analytica, dans lequel Cambridge Analytica a utilisé les données des utilisateurs de Facebook, partagées sans leur consentement, pour déduire les types psychologiques des utilisateurs et les cibler avec des publicités politiques manipulatrices, a montré que l’utilisation contraire à l’éthique des analyses avancées peut éviscérer la réputation d’une entreprise ou même , comme dans le cas de Cambridge Analytica lui-même, le faire tomber. Les entreprises à qui nous avons parlé voulaient plutôt être considérées comme des intendants responsables des données des personnes.
Le défi auquel les responsables de l’éthique de l’IA étaient confrontés consistait à déterminer la meilleure façon d’atteindre une « IA éthique ». Ils se sont d’abord penchés sur les principes éthiques de l’IA, en particulier ceux ancrés dans la bioéthique ou les principes des droits de l’homme, mais les ont trouvés insuffisants. Ce n’est pas seulement qu’il existe de nombreux ensembles de principes concurrents. C’est que la justice, l’équité, la bienfaisance, l’autonomie et d’autres principes similaires sont contestés et sujets à interprétation et peuvent entrer en conflit les uns avec les autres.
Cela a conduit à notre troisième conclusion : les managers avaient besoin de plus que des principes d’IA de haut niveau pour décider quoi faire dans des situations spécifiques. Un responsable de l’éthique de l’IA a décrit avoir tenté de traduire les principes des droits de l’homme en un ensemble de questions que les développeurs pourraient se poser pour produire des systèmes logiciels d’IA plus éthiques. « Nous nous sommes arrêtés après 34 pages de questions », a déclaré le manager.
Quatrièmement, les professionnels aux prises avec des incertitudes éthiques se sont tournés vers les structures et les procédures organisationnelles pour arriver à des jugements sur ce qu’il fallait faire. Certaines d’entre elles étaient manifestement insuffisantes. Mais d’autres, bien qu’encore largement en développement, ont été plus utiles, tels que :
- Embauche d’un responsable de l’éthique de l’IA pour construire et superviser le programme.
- Établir un comité d’éthique interne de l’IA pour peser et trancher les questions difficiles.
- Créer des listes de contrôle sur l’éthique des données et exiger que les data scientists de première ligne les remplissent.
- Tendre la main aux universitaires, aux anciens régulateurs et aux défenseurs de perspectives alternatives.
- Mener des évaluations d’impact algorithmiques du type déjà utilisé dans la gouvernance de l’environnement et de la vie privée.
L’éthique comme prise de décision responsable
L’idée clé qui a émergé de notre étude est la suivante : les entreprises qui cherchent à utiliser l’IA de manière éthique ne doivent pas s’attendre à découvrir un simple ensemble de principes qui fournissent des réponses correctes d’un point de vue omniscient et divin. Au lieu de cela, ils devraient se concentrer sur la tâche très humaine d’essayer de prendre des décisions responsables dans un monde de compréhension finie et de circonstances changeantes, même si certaines décisions finissent par être imparfaites.
En l’absence d’exigences légales explicites, les entreprises, comme les particuliers, ne peuvent que faire de leur mieux pour se rendre compte de la façon dont l’IA affecte les personnes et l’environnement et pour se tenir au courant des préoccupations du public et des dernières recherches et idées d’experts. Ils peuvent également solliciter la contribution d’un ensemble large et diversifié de parties prenantes et s’engager sérieusement dans des principes éthiques de haut niveau.
Cette idée simple change la conversation de manière importante. Cela encourage les professionnels de l’éthique de l’IA à concentrer leurs énergies moins sur l’identification et l’application des principes de l’IA – bien qu’ils restent une partie de l’histoire – et davantage sur l’adoption de structures et de processus décisionnels pour s’assurer qu’ils tiennent compte des impacts, des points de vue et des attentes du public qui devraient informer leurs décisions commerciales.
En fin de compte, nous pensons que les lois et réglementations devront fournir des repères substantiels que les organisations devront viser. Mais les structures et les processus de prise de décision responsable sont un point de départ et devraient, au fil du temps, aider à acquérir les connaissances nécessaires pour élaborer des normes juridiques de fond protectrices et applicables.
En effet, la loi et la politique émergentes de l’IA se concentrent sur le processus. La ville de New York a adopté une loi obligeant les entreprises à auditer leurs systèmes d’IA pour détecter les biais préjudiciables avant d’utiliser ces systèmes pour prendre des décisions d’embauche. Les membres du Congrès ont présenté des projets de loi qui obligeraient les entreprises à effectuer des évaluations d’impact algorithmiques avant d’utiliser l’IA pour les prêts, l’emploi, les assurances et d’autres décisions conséquentes. Ces lois mettent l’accent sur les processus qui traitent à l’avance les nombreuses menaces de l’IA.
Certains des développeurs de l’IA générative ont adopté une approche très différente. Sam Altman, le PDG d’OpenAI, a d’abord expliqué qu’en publiant ChatGPT au public, la société cherchait à donner au chatbot « une exposition suffisante au monde réel pour que vous trouviez certains des cas d’utilisation abusive auxquels vous n’auriez pas pensé afin que vous pouvez construire de meilleurs outils. » Pour nous, ce n’est pas l’IA responsable. C’est traiter des êtres humains comme des cobayes dans une expérience risquée.
L’appel d’Altman lors d’une audience du Sénat en mai 2023 pour la réglementation gouvernementale de l’IA montre une plus grande prise de conscience du problème. Mais nous pensons qu’il va trop loin en transférant au gouvernement les responsabilités que les développeurs de l’IA générative doivent également assumer. Maintenir la confiance du public et éviter de nuire à la société exigera des entreprises qu’elles assument plus pleinement leurs responsabilités.