Les rovers martiens de la NASA pourraient inspirer un avenir plus éthique pour l'IA

Les rovers martiens de la NASA pourraient inspirer un avenir plus éthique pour l’IA

Depuis la sortie de ChatGPT fin 2022, de nombreux médias ont fait état des menaces éthiques posées par l’intelligence artificielle. Les experts en technologie ont émis des avertissements concernant les robots tueurs déterminés à l’extinction humaine, tandis que le Forum économique mondial a prédit que les machines supprimeraient des emplois.

Le secteur technologique réduit ses effectifs tout en investissant dans des outils de productivité améliorés par l’IA. Les écrivains et les acteurs d’Hollywood sont en grève pour protéger leur emploi et leur image. Et les chercheurs continuent de montrer comment ces systèmes renforcent les préjugés existants ou créent des emplois dénués de sens, parmi une myriade d’autres problèmes.

Il existe une meilleure façon d’introduire l’intelligence artificielle sur les lieux de travail. Je le sais, parce que je l’ai vu, en tant que sociologue qui travaille avec les équipes de robots spatiaux de la NASA.

Les scientifiques et ingénieurs que j’étudie sont occupés à explorer la surface de Mars à l’aide de rovers équipés d’IA. Mais leur travail n’a rien de fantastique. C’est un exemple de la puissance de tisser ensemble la machine et l’intelligence humaine, au service d’un objectif commun.

Au lieu de remplacer les humains, ces robots s’associent à nous pour étendre et compléter les qualités humaines. En cours de route, ils évitent les pièges éthiques courants et tracent une voie humaine pour travailler avec l’IA.

Le mythe du remplacement dans l’IA

Les histoires de robots tueurs et de pertes d’emplois illustrent comment un « mythe du remplacement » domine la façon dont les gens perçoivent l’IA. Dans cette optique, les humains peuvent et seront remplacés par des machines automatisées.

Au milieu de cette menace existentielle se cache la promesse d’aubaines commerciales telles qu’une plus grande efficacité, des marges bénéficiaires améliorées et davantage de temps libre.

Des preuves empiriques montrent que l’automatisation ne réduit pas les coûts. Au lieu de cela, cela accroît les inégalités en supprimant les travailleurs à faible statut et en augmentant le coût salarial des travailleurs de haut statut qui restent. Parallèlement, les outils de productivité d’aujourd’hui incitent les employés à travailler davantage pour leur employeur, et non moins.

Les alternatives au remplacement pur et simple sont les systèmes « à autonomie mixte », dans lesquels les personnes et les robots travaillent ensemble. Par exemple, les voitures autonomes doivent être programmées pour fonctionner dans la circulation aux côtés de conducteurs humains. L’autonomie est « mixte » car les humains et les robots opèrent dans le même système et leurs actions s’influencent mutuellement.

Cependant, l’autonomie mixte est souvent considérée comme une étape vers le remplacement. Et cela peut conduire à des systèmes dans lesquels les humains se contentent de nourrir, d’organiser ou d’enseigner des outils d’IA. Cela impose aux humains un « travail fantôme », des tâches insensées et fragmentaires que les programmeurs espèrent que l’apprentissage automatique rendra bientôt obsolètes.

Le remplacement soulève des signaux d’alarme pour l’éthique de l’IA. Le travail comme le marquage de contenu pour former l’IA ou le nettoyage des publications sur Facebook comporte généralement des tâches traumatisantes et une main-d’œuvre mal payée répartie dans les pays du Sud. Et des légions de concepteurs de véhicules autonomes sont obsédés par « le problème du tramway » : déterminer quand et s’il est éthique d’écraser les piétons.

Mais mes recherches auprès des équipes de robots spatiaux de la NASA montrent que lorsque les entreprises rejettent le mythe du remplacement et optent plutôt pour la création d’équipes homme-robot, bon nombre des problèmes éthiques liés à l’IA disparaissent.

Prolonger plutôt que remplacer

Des équipes homme-robot solides fonctionnent mieux lorsqu’elles étendent et augmentent les capacités humaines au lieu de les remplacer. Les ingénieurs fabriquent des machines capables d’effectuer un travail que les humains ne peuvent pas effectuer. Ensuite, ils associent intelligemment le travail des machines et le travail humain, travaillant vers un objectif commun.

Souvent, ce travail d’équipe consiste à envoyer des robots effectuer des tâches physiquement dangereuses pour les humains. Le déminage, la recherche et le sauvetage, les sorties dans l’espace et les robots en haute mer en sont tous des exemples concrets.

Le travail d’équipe signifie également tirer parti des forces combinées des sens ou des intelligences robotiques et humaines. Après tout, les robots possèdent de nombreuses capacités que les humains ne possèdent pas, et vice versa.

Par exemple, les yeux humains sur Mars ne peuvent voir qu’un terrain rouge poussiéreux faiblement éclairé s’étendant jusqu’à l’horizon. Les ingénieurs équipent donc les rovers martiens de filtres de caméra pour « voir » des longueurs d’onde de lumière que les humains ne peuvent pas voir dans l’infrarouge, renvoyant ainsi des images en fausses couleurs brillantes.

Pendant ce temps, l’IA embarquée des rovers ne peut pas générer de découvertes scientifiques. Ce n’est qu’en combinant les résultats colorés des capteurs avec les discussions d’experts que les scientifiques pourront utiliser ces yeux robotiques pour découvrir de nouvelles vérités sur Mars.

Des données respectueuses

Un autre défi éthique de l’IA concerne la manière dont les données sont collectées et utilisées. L’IA générative est formée sur le travail des artistes et des écrivains sans leur consentement, les ensembles de données commerciales regorgent de préjugés et ChatGPT « hallucine » les réponses aux questions.

Les conséquences concrètes de cette utilisation des données dans l’IA vont des poursuites judiciaires au profilage racial.

Les robots sur Mars s’appuient également sur des données, de la puissance de traitement et des techniques d’apprentissage automatique pour faire leur travail. Mais les données dont ils ont besoin sont des informations visuelles et à distance pour générer des itinéraires praticables ou suggérer de nouvelles images sympas.

En se concentrant sur le monde qui les entoure plutôt que sur nos mondes sociaux, ces systèmes robotiques évitent les questions de surveillance, de préjugés et d’exploitation qui affligent l’IA d’aujourd’hui.

L’éthique des soins

Les robots peuvent unir les groupes qui travaillent avec eux en suscitant des émotions humaines lorsqu’ils sont intégrés de manière transparente. Par exemple, des soldats chevronnés pleurent les drones brisés sur le champ de bataille, et les familles donnent des noms et des personnalités à leurs Roombas.

J’ai vu les ingénieurs de la NASA fondre en larmes d’anxiété lorsque les rovers Spirit et Opportunity ont été menacés par des tempêtes de poussière martiennes.

Contrairement à l’anthropomorphisme – projetant des caractéristiques humaines sur une machine – ce sentiment naît d’un sentiment d’attention portée à la machine. Il se développe à travers des interactions quotidiennes, des réalisations mutuelles et une responsabilité partagée.

Lorsque les machines inspirent un sentiment d’attention, elles peuvent souligner, et non affaiblir, les qualités qui font les gens humains.

Une meilleure IA est possible

Dans les secteurs où l’IA pourrait être utilisée pour remplacer les travailleurs, les experts en technologie pourraient réfléchir à la manière dont des partenariats homme-machine intelligents pourraient améliorer les capacités humaines au lieu de les nuire.

Les équipes de rédaction de scripts apprécieront peut-être un agent artificiel capable de rechercher des dialogues ou des références croisées à la volée. Les artistes pourraient écrire ou organiser leurs propres algorithmes pour alimenter la créativité et conserver le crédit de leur travail. Les robots destinés à soutenir les équipes logicielles pourraient améliorer la communication lors des réunions et détecter les erreurs résultant de la compilation du code.

Bien entendu, rejeter le remplacement n’élimine pas tous les problèmes éthiques liés à l’IA. Mais de nombreux problèmes liés aux moyens de subsistance humains, à l’action et aux préjugés changent lorsque le remplacement n’est plus l’objectif.

Le fantasme du remplacement n’est qu’un des nombreux avenirs possibles pour l’IA et la société. Après tout, personne ne regarderait « Star Wars » si les droïdes remplaçaient tous les protagonistes. Pour une vision plus éthique de l’avenir de l’humanité grâce à l’IA, vous pouvez vous tourner vers les équipes homme-machine qui sont déjà bien vivantes, dans l’espace et sur Terre.