Sommes-nous en train de brouiller la frontière entre l’homme et la machine ?

Sommes-nous en train de brouiller la frontière entre l’homme et la machine ?

Attribuer des traits humains aux machines n’a rien de nouveau, mais avec l’essor de l’intelligence artificielle générative, l’anthropomorphisme prend une nouvelle dimension. Cette tendance soulève des questions philosophiques et éthiques cruciales, tout en redéfinissant notre rapport à la technologie.

Si vous avez déjà tapé « bonjour » ou « merci » dans ChatGPT, alors vous êtes coupable d'anthropomorphisme, un mot déroutant qui revient de plus en plus dans les discussions sur l'intelligence artificielle (IA). Mais qu’est-ce que cela signifie exactement ?

D'une manière générale, l'anthropomorphisme est l'attribution de caractéristiques humaines à des entités non humaines comme les animaux et les objets. Ce concept a également été appliqué aux robots humanoïdes et, plus récemment, à l’IA, notamment à l’IA générative. Contrairement à l’IA spécialisée, qui est utilisée à des fins spécifiques comme la reconnaissance faciale, l’IA générative (qui inclut ChatGPT) peut générer du texte, des images et d’autres types de contenu en réponse à une invite.

Si l’humanisation des systèmes GenAI passe presque inaperçue, cette tendance soulève des questions sur la définition même de l’humanité et de l’intelligence, ainsi que sur notre rapport à ces nouvelles technologies. Y a-t-il un risque à traiter une machine de la même manière qu’un être humain ?

Anthropomorphe dès le départ

L'anthropomorphisme des machines n'a rien de nouveau. En 1950, le mathématicien et informaticien britannique Alan Turing a proposé une vision radicale de l’intelligence artificielle. Dans son test de Turing, un évaluateur humain doit déterminer si l'entité avec laquelle il converse via un texte écrit est un humain ou une machine. L’idée est d’évaluer dans quelle mesure les machines sont capables de démontrer une intelligence humaine.

Ce travail pionnier de Turing illustre notre tendance à attribuer des caractéristiques humaines aux machines et ouvre la voie à de nouvelles explorations de l’anthropomorphisme.

« Nous attendons généralement d'une technologie, ou d'une machine, qu'elle soit précise, spécifique, plus rapide et bien plus efficace que nous », déclare Daniel Huttenlocher, doyen du Schwarzman College of Computing du MIT et titulaire d'un doctorat honoris causa de l'EPFL en 2024. « Les résultats de GenAI semblent humains car ils présentent des caractéristiques humaines. Ils sont imprécis, adaptatifs et surprenants. »

Une technologie qui nous ressemble

L’acronyme AI contient bien sûr le mot « intelligence », mais aussi – et surtout – le mot « artificiel ». Néanmoins, Johan Rochel, enseignant et chercheur à l'EPFL en éthique et lois de l'innovation, explique : « Les systèmes d'IA sont basés sur d'énormes ensembles de données et reflètent les décisions que leurs développeurs leur ont appris à prendre, véhiculant ainsi leurs propres valeurs, croyances et morales. « .

Souvent, l’anthropomorphisme commence par la conception des interfaces du système d’IA. En d’autres termes, la raison pour laquelle les utilisateurs anthropomorphisent les machines IA est que celles-ci ont été conçues dès le départ pour afficher les caractéristiques humaines. Par exemple, Alexa d'Amazon a une voix chaleureuse et un nom humain, et ChatGPT est tout aussi poli et amical qu'une personne.

Ces caractéristiques ont été incluses pour rendre les machines faciles et agréables à utiliser. « Les meilleurs systèmes numériques sont conçus et construits en pensant à l'utilisateur », explique Rochel. « Plus ils sont intuitifs avec lesquels interagir, plus ils seront facilement adoptés. »

Pourtant, faire en sorte que les machines paraissent humaines n’est pas si simple. « C'est un véritable défi technique », déclare Marcel Salathé, co-responsable du AI Center de l'EPFL. « Un système d'IA parfaitement anthropomorphisé devrait maîtriser parfaitement le langage humain, y compris toutes ses nuances, et être capable de reconnaître les émotions et de réagir de manière appropriée, de traiter les informations en temps réel, de s'adapter aux utilisateurs individuels, etc. »

Former des liens

Lorsque ChatGPT vous souhaite bonne chance pour votre événement après que vous lui ayez demandé de vous donner des idées pour un nom d'événement, cela rend l'interaction plus engageante et émotionnelle et donne l'impression d'une relation amicale. Ce type d’anthropomorphisme est un stratagème stratégique utilisé par les développeurs de systèmes pour amener les utilisateurs à créer un lien avec la machine.

Selon une étude récente du professeur associé de l'EPFL, Robert West, lorsque les utilisateurs interagissent avec un système d'IA sur un problème donné et que le système a accès aux informations personnelles des utilisateurs, le système peut en réalité modifier leurs opinions. Cela soulève des questions sur l’impact sociétal de l’IA, puisqu’elle peut être utilisée non seulement comme une technologie numérique améliorée, mais aussi pour générer des conversations capables d’influencer nos décisions.

Pouvons-nous faire confiance à ces partenaires virtuels ?

Dans le secteur des soins de santé, un nombre croissant de systèmes anthropomorphes sont développés, notamment des robots humanoïdes et des chatbots de soutien moral, pour servir et assister les patients. De tels systèmes virtuels humanisés et personnalisés sont conçus pour établir la confiance et former des liens.

« Les utilisateurs d'aujourd'hui sont de plus en plus informés et conscients du potentiel de l'utilisation du numérique », explique Rochel. « Et la demande augmente pour des systèmes auxquels ils peuvent faire confiance. Cela se reflète également dans la législation. Bien que la définition exacte de la « confiance » puisse varier, un aspect clé est qu'elle se développe à travers des relations interhumaines.

« Mais dans ce cas, nous avons affaire à des relations d'humain à machine. Toutes les fonctionnalités qui donnent aux utilisateurs l'impression qu'ils interagissent avec un humain sont destinées à instaurer la confiance, mais ces fonctionnalités ne sont pas toujours explicites. »

Prenons par exemple la manière dont ChatGPT délivre ses réponses, « comme si quelqu'un tapait la réponse, comme dans une application de messagerie », précise Rochet. « Les utilisateurs savent évidemment que ChatGPT n'est pas humain, mais cette façon secrète de simuler une conversation avec un humain encourage les utilisateurs à nouer une sorte de relation avec la machine, une machine qui prétend être comme nous. »

De telles relations simulées avec une machine peuvent aller au-delà des bavardages et des réponses cordiales. Dans Her, film sorti en 2013, le personnage principal incarné par Joaquin Phoenix tombe amoureux de son assistante vocale incarnée par Scarlett Johansson. Le film soulève des questions sur les relations personnelles et sur la manière dont l’IA générative peut influencer notre comportement.

« La confiance se construit souvent en partageant des informations personnelles et confidentielles, ce qui pourrait être très préjudiciable si elles tombaient entre de mauvaises mains », explique Salathé. « La vie privée des utilisateurs est en jeu. »

Une question de sécurité et de responsabilité

Si nous considérons les systèmes d’IA comme nos égaux, devraient-ils être responsables si, par exemple, un essai que nous soumettons contient des erreurs ? « Cela impliquerait que les systèmes d'IA puissent être tenus responsables, tout comme les individus », explique Rochel. « Mais nous ne devons pas oublier que leur intelligence est simplement artificielle. Les machines ne peuvent jamais être tenues pour responsables car elles ne sont pas totalement autonomes. Elles ne peuvent pas prendre de décisions en dehors de celles pour lesquelles elles ont été programmées. Nous devons rechercher les l'humain derrière la machine. Mais où est la responsabilité : du développeur ou de l'utilisateur ? »

Voir notre reflet dans le miroir de l'IA

« J'aime utiliser la métaphore d'une fourchette dans un grille-pain », explique Huttenlocher. « Si vous regardez les photos des premiers grille-pain des années 1900, vous verrez vite qu'il était facile de s'électrocuter en y plantant une fourchette. Des normes et des garanties ont finalement été introduites pour rendre les grille-pain sûrs et empêcher qu'une telle utilisation abusive ne devienne une pratique courante.

Nous devons faire la même chose avec l’IA. Nous devons introduire des garanties contre l’utilisation abusive de la technologie, établir une responsabilité juridique et adopter des normes comprises par tous. »

Selon Rochel, « la transparence sera primordiale. Nous devons rappeler aux gens que ce ne sont que des machines et qu'elles sont capables de commettre des erreurs. Cela contribuera à réduire le risque d'utilisation abusive. »

Les législateurs débattent encore de la manière d’établir la transparence et l’explicabilité des systèmes d’IA. La loi de l'Union européenne sur l'IA est très claire : les systèmes d'IA générative doivent être conçus et présentés de manière à montrer clairement qu'ils ne sont pas humains. Les utilisateurs doivent être pleinement conscients qu’ils interagissent avec une machine.

IA et humanité : forger un partenariat réfléchi et éclairé

« Nous pouvons apprendre beaucoup de l'IA », déclare Huttenlocher. « Par exemple, AlphaGo a conçu des stratégies pour Go auxquelles même ses meilleurs joueurs n'avaient jamais pensé, apportant une toute nouvelle dimension au jeu. Je considère l'IA comme une invention qui peut améliorer, plutôt que remplacer, les capacités humaines. »

Salathé souligne qu'« en anthropomorphisant les systèmes d'IA, nous pouvons accélérer l'adoption de la technologie, mais cela soulève également des questions fondamentales sur le rôle de l'humain dans un monde où il est de plus en plus difficile de distinguer les humains des machines. À mesure que l'IA se développe, nous devrons assurez-vous que nos interactions avec les machines, aussi naturelles qu'elles puissent paraître, ne nous font pas perdre de vue ce qui nous rend humains.

Pour Rochel, « les développeurs de systèmes d'IA, les parties prenantes, les législateurs et les utilisateurs doivent travailler ensemble pour garantir que la technologie reste un outil entre les mains des êtres humains et ne devienne pas une force qui les remplace ou les manipule ».