Apprendre à des robots à apprendre à d'autres robots

Comment il transmet le pouvoir aux machines pour transformer notre façon de voir le monde

Il y a des signes d’IA partout, elle est derrière tout, des chatbots du service client aux publicités personnalisées que nous recevons lors de la navigation en ligne. Cependant, nous ignorons encore largement que les algorithmes cachés effectuent le gros travail en coulisses.

Nous travaillons actuellement sur un projet de recherche axé sur les conversations avec des spécialistes du domaine de l’IA. Nous les interrogeons sur leur pensée et leurs valeurs, ainsi que sur les considérations éthiques qu’ils considèrent comme les plus importantes – et pourquoi. Les normes et valeurs des développeurs peuvent être intégrées dans les systèmes d’IA qu’ils conçoivent. Cependant, ils – et nous – ignorons souvent cela, ainsi que ses conséquences.

Il est essentiel de comprendre le plus possible le développement de l’IA, car la technologie nous transforme déjà d’une manière dont nous ne semblons pas nous rendre compte. Par exemple, une recherche publiée en 2017 a montré que les algorithmes des médias sociaux créent des résultats basés sur des hypothèses concernant les utilisateurs, mais que les utilisateurs s’adaptent également à ces résultats, comme les histoires affichées dans leurs flux, modifiant également la logique de l’algorithme.

Nos interactions quotidiennes avec l’IA nous rendent de plus en plus dépendants d’elle, mais la dynamique de pouvoir dans cette relation favorise grandement les systèmes d’IA. Il s’agit d’une technologie dont le fonctionnement interne n’est même pas entièrement compris par ses créateurs.

Une trop grande dépendance humaine à l’égard de la technologie peut réduire la pensée créative et critique. L’IA a déjà entraîné des suppressions d’emplois et du chômage. Et même si les avertissements selon lesquels cela pourrait conduire à l’extinction de l’humanité ne doivent pas être pris au pied de la lettre, nous ne pouvons pas non plus nous permettre de les ignorer complètement.

Il a été démontré que les algorithmes contiennent des tendances discriminatoires à l’égard de la race, du sexe et d’autres caractéristiques protégées. Nous devons comprendre comment ces problèmes et d’autres liés au développement de l’IA surviennent.

Certains commentateurs ont attiré l’attention sur ce qu’ils considèrent comme un manquement des entreprises qui développent l’IA à prendre en compte la sécurité et la confidentialité. Il existe également un manque de transparence et de responsabilité concernant les projets d’IA. Bien que cela ne soit pas inhabituel dans le monde compétitif de la grande technologie, nous devons certainement adopter une approche plus rationnelle face à une technologie capable d’exercer un tel pouvoir sur nos vies.

Crise d’identité?

Ce qui a été négligé dans le discours sur l’IA, c’est la façon dont notre sens du sens, notre identité et notre réalité dépendront de plus en plus de l’engagement avec les services qu’elle facilite. L’IA n’a peut-être pas de conscience, mais elle exerce son pouvoir d’une manière qui affecte notre perception de qui nous sommes. En effet, nous nous identifions librement aux activités rendues possibles par sa présence et y participons.

En ce sens, l’IA n’est pas une grande conspiration destinée à contrôler le monde et tous ses habitants, mais plutôt une force, ni nécessairement bonne ni mauvaise. Cependant, bien que l’extinction soit peu probable à court terme, un danger bien plus présent est que notre dépendance à l’égard de la technologie conduit les humains à la mettre efficacement au service de la technologie. Ce n’est pas une situation qu’aucun d’entre nous ne souhaiterait, encore moins lorsque la technologie intègre des normes humaines que beaucoup considéreraient comme loin d’être idéales.

Pour un exemple de ce dont nous parlons ici, prenons les directives de performance et le suivi des chauffeurs-livreurs, qui sont facilités par des systèmes automatisés dotés d’IA. Ils ont été décrits par un groupe parlementaire multipartite britannique comme affectant négativement le bien-être mental et physique des travailleurs, car « ils subissent la pression extrême d’une microgestion constante et en temps réel et d’une évaluation automatisée ».

Un autre exemple a été souligné par Erik Brynjolfsson, un économiste de Stanford, qui a évoqué la possibilité de ce qu’on appelle le « piège de Turing ». Cela fait référence aux préoccupations selon lesquelles l’automatisation des activités humaines pourrait laisser la richesse et le pouvoir entre de moins en moins de mains. Dans son livre The Turing Trap: The Promise & Peril of Human-Like Artificial Intelligence, Brynjolfsson écrit : « Avec cette concentration (de pouvoir), vient le danger d’être piégé dans un équilibre dans lequel ceux qui n’ont pas de pouvoir n’ont aucun moyen d’améliorer leurs résultats. « .

Plus récemment, Jeremy Howard, chercheur en IA, a décrit comment il avait présenté ChatGPT à sa fille de sept ans après qu’elle lui ait posé plusieurs questions à ce sujet. Il a conclu qu’il pourrait devenir un nouveau type de tuteur personnel, lui enseignant les mathématiques, les sciences, l’anglais et d’autres matières.

De toute évidence, cela impliquerait un déplacement du rôle des enseignants. Cependant, Howard a également averti sa fille qu’elle ne devait pas croire tout ce qu’il disait. Cet aspect présente un réel risque pour l’apprentissage. Et même si ChatGPT transmettait des connaissances précises, sa fille retiendrait-elle ces informations aussi facilement que lorsqu’elles étaient communiquées par la parole « incarnée », en d’autres termes, par un humain ?

Ce que voit l’algorithme

Ces cas concrets démontrent la manière dont l’IA peut transformer notre vision du monde et de nous-mêmes. Ils indiquent qu’il existe une dynamique de pouvoir entre les utilisateurs et l’IA, dans laquelle la machine exerce une autorité sur ceux qui interagissent avec elle.

Comme l’a rapporté Taina Bucher, professeure assistante en communication et informatique à l’Université de Copenhague, dans un document de recherche réalisé en 2016 avec l’aide de consommateurs : « Il ne s’agit pas seulement que les catégories et les classifications sur lesquelles s’appuient les algorithmes correspondent à notre propre perception de soi. , mais dans quelle mesure nous en arrivons à nous voir à travers les « yeux » de l’algorithme. »

L’IA est souvent simplement accessible via nos écrans d’ordinateur ou d’autres supports plus abstraits, elle n’est incarnée que dans le sens le plus limité. En tant que tel, son effet est souvent limité au niveau cognitif de l’identité, dépourvu d’« âme », ou de sensibilité émotionnelle ou de ce que l’on appelle parfois l’énergie affective. Il s’agit d’une description des façons naturelles dont les humains interagissent et suscitent des réactions les uns des autres.

Si vous demandiez à ChatGPT si l’IA peut être incarnée, la réponse concernerait uniquement l’incarnation de l’intelligence artificielle sous une forme physique, comme dans un robot. Mais l’incarnation est aussi une question d’émotions, de sentiments et d’empathie. Il ne peut être réduit à des séquences linéaires d’instructions.

Cela ne veut pas dire que l’IA n’affecte pas nos sentiments et nos émotions. Mais les machines ne pourront jamais reproduire la riche vie émotionnelle inhérente aux interactions entre deux ou plusieurs êtres humains. Alors que nos vies semblent de plus en plus liées à l’IA, nous devrions peut-être ralentir cette relation, d’autant plus qu’il est clair qu’il s’agit loin d’un partenariat égal.