L’IA a des conséquences sociales, mais qui en paie le prix ? Le problème des entreprises technologiques avec la « dette éthique »
Alors que l’inquiétude du public concernant les implications éthiques et sociales de l’intelligence artificielle ne cesse de croître, il peut sembler qu’il est temps de ralentir. Mais au sein des entreprises technologiques elles-mêmes, le sentiment est tout à fait le contraire. Alors que la course à l’IA de Big Tech s’intensifie, ce serait « une erreur absolument fatale en ce moment de s’inquiéter des choses qui peuvent être corrigées plus tard », a écrit un cadre de Microsoft dans un e-mail interne sur l’IA générative, comme le New York Times signalé.
En d’autres termes, il est temps « d’agir vite et de casser des choses », pour citer Mark Zuckerberg ancienne devise. Bien sûr, lorsque vous cassez des choses, vous devrez peut-être les réparer plus tard, à un coût.
Dans le développement logiciel, le terme « dette technique » fait référence au coût implicite de la mise en place de correctifs futurs en conséquence du choix de solutions plus rapides et moins prudentes maintenant. Se précipiter sur le marché peut signifier publier un logiciel qui n’est pas prêt, sachant qu’une fois qu’il arrivera sur le marché, vous aurez découvrez quels sont les bugs et peut, espérons-le, les réparer ensuite.
Cependant, les reportages négatifs sur l’IA générative ne concernent généralement pas ce type de bugs. Au lieu de cela, une grande partie de l’inquiétude concerne l’amplification des systèmes d’IA préjugés et stéréotypes nuisibles et étudiants utilisant l’IA trompeusement. On entend parler problèmes de confidentialité, les gens sont trompés par la désinformation, exploitation par le travail et craint la rapidité avec laquelle les emplois humains peuvent être remplacés, pour n’en nommer que quelques-uns. Ces problèmes ne sont pas des problèmes logiciels. Se rendre compte qu’une technologie renforce l’oppression ou les préjugés est très différent d’apprendre qu’un bouton sur un site Web ne fonctionne pas.
Comme enseignant et chercheur en éthique technologique, j’ai beaucoup réfléchi à ce genre de « bugs ». Ce qui s’accumule ici n’est pas seulement une dette technique, mais dette éthique. Tout comme la dette technique peut résulter de tests limités au cours du processus de développement, la dette éthique résulte du fait de ne pas tenir compte des conséquences négatives possibles ou des dommages sociétaux. Et avec la dette éthique en particulier, les personnes qui la contractent sont rarement celles qui la paient au final.
Hors de la course
Dès que le ChatGPT d’OpenAI est sorti en novembre 2022le pistolet de départ de la course à l’IA d’aujourd’hui, j’imaginais que le registre de la dette commençait à se remplir.
En quelques mois, Google et Microsoft ont publié leurs propres programmes d’IA générative, qui semblaient se précipiter sur le marché dans le but de suivre le rythme. Les cours boursiers de Google ont chuté lorsque son chatbot Bard en toute confiance fourni une mauvaise réponse lors de la démonstration de l’entreprise. On pourrait s’attendre à ce que Microsoft soit particulièrement prudent en ce qui concerne les chatbots, compte tenu de Tay, son bot basé sur Twitter qui a été presque immédiatement fermé en 2016 après avoir lancé des points de discussion misogynes et suprématistes blancs. Pourtant, les premières conversations avec Bing alimenté par l’IA a laissé certains utilisateurs instableset cela a répété des informations erronées connues.
Lorsque la dette sociale de ces publications précipitées arrivera à échéance, je m’attends à ce que nous entendions parler de conséquences involontaires ou imprévues. Après tout, même avec des directives éthiques en place, ce n’est pas comme si OpenAI, Microsoft ou Google pouvaient voir l’avenir. Comment quelqu’un peut-il savoir quels problèmes de société pourraient émerger avant même que la technologie ne soit complètement développée ?
La racine de ce dilemme est l’incertitude, qui est un effet secondaire courant de nombreuses révolutions technologiques, mais magnifié dans le cas de l’intelligence artificielle. Après tout, une partie de l’intérêt de l’IA est que ses actions ne sont pas connues à l’avance. L’IA n’est peut-être pas conçue pour produire des conséquences négatives, mais elle est conçue pour produire l’imprévu.
Cependant, il est fallacieux de suggérer que les technologues ne peuvent pas spéculer avec précision sur ce que pourraient être bon nombre de ces conséquences. À l’heure actuelle, il existe d’innombrables exemples de la manière dont l’IA peut reproduire les préjugés et exacerber les inégalités sociales, mais ces problèmes sont rarement identifiés publiquement par les entreprises technologiques elles-mêmes. Ce sont des chercheurs externes qui ont découvert des préjugés raciaux dans des publicités largement utilisées. systèmes d’analyse facialepar exemple, et dans un algorithme de prédiction des risques médicaux qui était appliqué à environ 200 millions d’Américains. Les universitaires et les organismes de défense ou de recherche comme le Ligue de justice algorithmique et le Institut de recherche sur l’IA distribuée font une grande partie de ce travail : identifier les préjudices après coup. Et ce modèle ne semble pas susceptible de changer si les entreprises continuent de licencier des éthiciens.
Spéculer de manière responsable
Je me décris parfois comme un optimiste technologique qui pense et se prépare comme un pessimiste. La seule façon de réduire la dette éthique est de prendre le temps de réfléchir aux choses qui pourraient mal tourner, mais ce n’est pas quelque chose que les technologues sont nécessairement. appris à faire.
Scientifique et écrivain de science-fiction emblématique Isaac Asimov a dit un jour que les auteurs de science-fiction « prévoient l’inévitable, et bien que les problèmes et les catastrophes soient inévitables, les solutions ne le sont pas ». Bien sûr, les auteurs de science-fiction ne sont généralement pas chargés de développer ces solutions, mais à l’heure actuelle, les technologues qui développent l’IA le sont.
Alors, comment les concepteurs d’IA peuvent-ils apprendre à penser davantage comme des écrivains de science-fiction ? Un de mes projets de recherche en cours se concentre sur le développement de moyens de soutenir ce processus de spéculation éthique. Je ne veux pas dire concevoir en pensant à des guerres de robots lointaines ; Je veux dire la capacité d’envisager des conséquences futures, y compris dans un avenir très proche.
C’est un sujet j’ai exploré dans mon enseignement depuis un certain temps, encourageant les étudiants à réfléchir aux implications éthiques de la technologie de science-fiction afin de les préparer à faire de même avec la technologie qu’ils pourraient créer. Un exercice que j’ai développé s’appelle le Salle des écrivains Black Mirroroù les étudiants spéculer sur d’éventuelles conséquences négatives de la technologie comme les algorithmes des médias sociaux et les voitures autonomes. Souvent, ces discussions sont basées sur les schémas du passé ou le potentiel de mauvais acteurs.
doctorat candidat Shamika Klassen et j’ai évalué cet exercice pédagogique dans un Étude de recherche et a découvert qu’il y avait des avantages pédagogiques à encourager les étudiants en informatique à imaginer ce qui pourrait mal se passer à l’avenir, puis à réfléchir à la manière dont nous pourrions éviter cet avenir en premier lieu.
Cependant, le but n’est pas de préparer les étudiants à ces avenirs lointains; c’est d’enseigner la spéculation comme une compétence qui peut être appliquée immédiatement. Cette compétence est particulièrement importante pour aider les élèves imaginez du mal à d’autres personnes, puisque les dommages technologiques affectent souvent de manière disproportionnée les groupes marginalisés qui sont sous-représentés dans les professions informatiques. Les prochaines étapes de ma recherche consistent à traduire ces stratégies de spéculation éthique pour les équipes de conception de technologies du monde réel.
Il est temps de faire une pause ?
En mars 2023, une lettre ouverte avec des milliers de signatures préconisées pour suspendre la formation des systèmes d’IA plus puissants que GPT-4. Sans contrôle, le développement de l’IA « pourrait éventuellement être plus nombreux, plus intelligent, nous rendre obsolètes et nous remplacer », voire entraîner une « perte de contrôle de notre civilisation », ont averti ses auteurs.
Comme critique de la lettre souligner, cette focalisation sur les risques hypothétiques ignore les dommages réels qui se produisent aujourd’hui. Néanmoins, je pense qu’il y a peu de désaccord parmi les éthiciens de l’IA sur le fait que le développement de l’IA doit ralentir – que les développeurs baissent les bras et citent des « conséquences involontaires » ne vont pas le couper.
Nous ne sommes que depuis quelques mois dans la « course à l’IA » qui s’accélère de manière significative, et je pense qu’il est déjà clair que les considérations éthiques sont laissées de côté. Mais la dette finira par arriver à échéance – et l’histoire suggère que les dirigeants et les investisseurs de Big Tech ne sont peut-être pas ceux qui la paient.