Apprendre à des robots à apprendre à d'autres robots

Quelle est la différence entre l’éthique de l’IA, l’IA responsable et l’IA digne de confiance ?

L’IA est partout : conduire des voitures, diagnostiquer des maladies, prendre des décisions en matière de crédit, classer les candidats à un emploi, identifier des visages, évaluer les libérés conditionnels. Ces gros titres devraient suffire à vous convaincre que l’IA est loin d’être éthique. Néanmoins, des termes comme « IA éthique » prédominent aux côtés de termes tout aussi problématiques comme « IA digne de confiance ».

Pourquoi ces phrases sont-elles si épineuses ? Après tout, ce ne sont que des mots : à quel point peuvent-ils être dangereux ? Eh bien, les mots comptent, et si nous voulons un jour parvenir à un avenir où l’IA est digne de notre confiance, nous devons au moins nous mettre d’accord sur un vocabulaire commun.

Coprésidents du Conseil consultatif d’éthique de l’IA de l’Institute for Experiential AI (EAI) : Cansu Canca et Ricardo Baeza-Yates expliquent les différences entre ces termes et pourquoi ils sont importants.

Le problème de « l’IA digne de confiance »

Pour Ricardo Baeza-Yates, qui est également directeur de recherche à l’EAI, tout cela se résume à une distinction fondamentale entre les capacités humaines et informatiques. L’intelligence artificielle n’est pas humaine, nous devrions donc éviter des termes comme « IA digne de confiance » qui non seulement humanisent l’IA, mais impliquent également un niveau de fiabilité qui n’existe tout simplement pas.

« Nous savons que l’IA ne fonctionne pas tout le temps, donc demander aux utilisateurs de lui faire confiance est trompeur », explique Baeza-Yates. « Si, il y a 100 ans, quelqu’un avait voulu me vendre un billet d’avion en le qualifiant d’« aviation digne de confiance », j’aurais été inquiet, car si quelque chose fonctionne, pourquoi devons-nous y ajouter « digne de confiance » ? C’est la différence entre l’ingénierie et l’ingénierie. et l’alchimie. »

Cansu Canca, responsable de l’éthique chez EAI, ajoute qu’une « IA digne de confiance » semble attirer l’attention sur l’objectif final : créer la confiance chez l’utilisateur. Ce faisant, il contourne le dur travail d’intégration de l’éthique dans le développement et le déploiement de systèmes d’IA, faisant peser la charge sur l’utilisateur.

« La confiance est vraiment le résultat de ce que nous voulons faire », dit-elle. « Nous devrions nous concentrer sur le système lui-même, et non sur le sentiment qu’il suscite éventuellement, espérons-le. »

Le problème de « l’IA éthique »

L’IA éthique est confrontée à un problème similaire dans la mesure où elle implique un certain degré d’action morale. Les humains visent certains résultats éthiques. Ils peuvent porter des jugements de valeur et réorienter leur comportement pour tenir compte d’objectifs qui ne se traduisent pas dans le monde des algorithmes.

« L’IA peut avoir un résultat éthique ou contraire à l’éthique », explique Cansu. « Il peut incorporer des jugements de valeur, mais ce n’est pas un être éthique doté d’intentions. Ce n’est pas un agent moral. »

L’éthique, en ce sens, relève strictement du domaine des êtres humains. Des défis apparaissent lorsque les gens commencent à concevoir des systèmes dotés de capacités de prise de décision autonomes, car ces systèmes sont aussi éthiques que l’intention de ceux qui les créent.

« Une IA responsable »

Ricardo et Cansu préfèrent tous deux le terme « IA responsable », tout en reconnaissant qu’il est également imparfait. « La responsabilité est aussi un trait humain, mais le droit a étendu le concept de responsabilité aux institutions, c’est pourquoi nous l’utilisons dans ce sens », explique Ricardo.

« D’une certaine manière, » l’IA responsable « est un raccourci pour le développement et l’utilisation responsables de l’IA, ou pour l’innovation responsable en matière d’IA », ajoute Cansu. « Cette expression reste ouverte à l’interprétation selon laquelle l’IA elle-même aura une certaine responsabilité, ce qui n’est certainement pas ce que nous voulons dire. Nous essayons de souligner que l’IA responsable consiste à créer des structures et des rôles pour développer l’IA de manière responsable, et que la responsabilité incombera toujours ». dans ces structures et les personnes qui conçoivent les systèmes.

Cansu et Ricardo considèrent tous deux l’éthique de l’IA comme une composante d’une IA responsable. Dans ce sous-domaine, nous trouvons l’éternelle question éthique : « Quelle est la bonne chose à faire ? » Et dans le domaine plus vaste qui l’entoure, nous trouvons un espace pour l’innovation – un espace exploratoire et interdisciplinaire pour les concepteurs, les développeurs, les investisseurs et les parties prenantes qui, en fin de compte (espérons-le), pointe vers un noyau éthique.

« Nous, philosophes, collaborons avec les développeurs et les concepteurs pour identifier les risques éthiques et les atténuer lors du développement de systèmes d’IA et de la conception de produits d’IA », explique Canca.