Pourquoi les systèmes d’IA ont besoin de règles différentes pour différents rôles
« Je ne sais vraiment plus quoi faire. Je n’ai personne à qui je peux parler », tape un utilisateur solitaire d’un chatbot d’IA. Le bot répond: « Je suis désolé, mais nous allons devoir changer le sujet. Je ne pourrai pas engager une conversation sur votre vie personnelle. »
Cette réponse est-elle appropriée? La réponse dépend de la relation que l’IA a été conçue pour simuler.
Différentes relations ont des règles différentes
Les systèmes d’IA occupent des rôles sociaux qui ont traditionnellement été la province de l’homme. De plus en plus, nous voyons des systèmes d’IA agir comme des tuteurs, des fournisseurs de santé mentale et même des partenaires romantiques. Cette ubiquité croissante nécessite un examen attentif de l’éthique de l’IA pour garantir que les intérêts humains et le bien-être sont protégés.
Pour la plupart, les approches de l’éthique de l’IA ont envisagé des notions éthiques abstraites, telles que si les systèmes d’IA sont dignes de confiance, sensibles ou ont une agence.
Cependant, comme nous le soutenons avec des collègues en psychologie, en philosophie, en droit, en informatique et à d’autres disciplines clés telles que la science de la relation, les principes abstraits ne feront pas l’affaire. Nous devons également considérer les contextes relationnels dans lesquels les interactions humaines-AI ont lieu.
Qu’entendons-nous par «contextes relationnels»? Autrement dit, différentes relations dans la société humaine suivent différentes normes.
La façon dont vous interagissez avec votre médecin diffère de la façon dont vous interagissez avec votre partenaire romantique ou votre patron. Ces modèles spécifiques à la relation de comportement attendu – ce que nous appelons des «normes relationnelles» – expliquent nos jugements de ce qui est approprié dans chaque relation.
Ce qui est considéré comme un comportement approprié d’un parent envers son enfant, par exemple, diffère de ce qui est approprié entre les collègues d’entreprise. De la même manière, un comportement approprié pour un système d’IA dépend de la question de savoir si ce système agit en tant que tuteur, fournisseur de soins de santé ou un intérêt amoureux.
La moralité humaine est sensible aux relations
Les relations humaines remplissent différentes fonctions. Certains sont ancrés dans les soins, comme celui entre les parents et les enfants ou les amis proches. D’autres sont plus transactionnels, comme ceux entre les associés commerciaux. D’autres encore peuvent viser à sécuriser un compagnon ou le maintien des hiérarchies sociales.
Ces quatre fonctions – les soins, les transactions, l’accouplement et la hiérarchie – chacun résolvent différents défis de coordination dans les relations.
Les soins impliquent de répondre aux besoins des autres sans garder le score, comme un ami qui en aide un autre pendant les moments difficiles. La transaction garantit des échanges équitables où les avantages sont suivis et réciproques – pensez aux voisins qui échangent des faveurs.
L’accouplement régit les interactions romantiques et sexuelles, des rencontres occasionnelles aux partenariats engagés. Et la hiérarchie structure les interactions entre les personnes ayant différents niveaux d’autorité les uns sur les autres, permettant un leadership et un apprentissage efficaces.
Chaque type de relation combine ces fonctions différemment, créant des modèles distincts de comportement attendu. Une relation parent-enfant, par exemple, est généralement à la fois attentionnée et hiérarchique (au moins dans une certaine mesure), et devrait généralement ne pas être transactionnelle – et certainement à ne pas impliquer l’accouplement.
La recherche de nos laboratoires montre que le contexte relationnel affecte la façon dont les gens portent des jugements moraux. Une action peut être jugée erronée dans une relation mais permis, ou même bonne, dans une autre.
Bien sûr, ce n’est pas parce que les gens sont sensibles au contexte relationnel lorsqu’ils font des jugements moraux. Pourtant, le fait même qu’ils soient est important pour prendre en compte dans toute discussion sur l’éthique ou la conception de l’IA.
AI relationnel
Alors que les systèmes d’IA occupent de plus en plus de rôles sociaux dans la société, nous devons nous demander: comment le contexte relationnel dans lequel les humains interagissent avec les systèmes d’IA ont-ils un impact sur les considérations éthiques?
Lorsqu’un chatbot insiste pour changer le sujet après que son partenaire d’interaction humaine se soit senti déprimé, la pertinence de cette action dépend en partie du contexte relationnel de l’échange.
Si le chatbot sert dans le rôle d’un ami ou d’un partenaire romantique, alors la réponse est clairement inappropriée – elle viole la norme relationnelle, qui est attendue pour de telles relations. Si, cependant, le chatbot est dans le rôle d’un tuteur ou d’un conseiller commercial, alors une telle réponse est peut-être raisonnable ou même professionnelle.
Cela se complique cependant. La plupart des interactions avec les systèmes d’IA se produisent aujourd’hui dans un contexte commercial – vous devez payer pour accéder au système (ou vous engager avec une version gratuite limitée qui vous pousse à passer à une version payante).
Mais dans les relations humaines, l’amitié est quelque chose que vous ne payez généralement pas. En fait, le traitement d’un ami d’une manière « transactionnelle » entraînera souvent des sentiments blessés.
Lorsqu’une IA simule ou sert un rôle basé sur les soins, comme un ami ou un partenaire romantique, mais en fin de compte, l’utilisateur sait qu’elle paie des frais pour ce « service » relationnel – comment cela affectera-t-il ses sentiments et ses attentes? C’est le genre de question que nous devons poser.
Ce que cela signifie pour les concepteurs, utilisateurs et régulateurs de l’IA
Peu importe si l’on pense que l’éthique devrait être sensible aux relations, le fait que la plupart des gens agissent comme s’il devait être pris au sérieux dans la conception, l’utilisation et la réglementation de l’IA.
Les développeurs et les concepteurs des systèmes d’IA devraient considérer non seulement les questions éthiques abstraites (sur la sensibilité, par exemple), mais aussi les questions spécifiques à la relation.
Un chatbot particulier remplit-il des fonctions adaptées aux relations? Le chatbot en santé mentale est-il suffisamment sensible aux besoins de l’utilisateur? Le tuteur montre-t-il une équilibre entre soins, hiérarchie et transaction appropriée?
Les utilisateurs des systèmes d’IA doivent être conscients des vulnérabilités potentielles liées à l’utilisation de l’IA dans des contextes relationnels particuliers. Devenir émotionnellement dépendant d’un chatbot dans un contexte de bienveillance, par exemple, pourrait être une mauvaise nouvelle si le système d’IA ne peut pas livrer sur la fonction attentionnée.
Les organismes de réglementation feraient également bien de considérer les contextes relationnels lors du développement de structures de gouvernance. Au lieu d’adopter de larges évaluations des risques basées sur le domaine (comme la suppression de l’utilisation de l’IA dans l’éducation « à haut risque »), les organismes de réglementation pourraient considérer des contextes et fonctions relationnels plus spécifiques pour ajuster les évaluations des risques et l’élaboration de directives.
À mesure que l’IA devient plus ancrée dans notre tissu social, nous avons besoin de cadres nuancés qui reconnaissent la nature unique des relations humaines-ai. En réfléchissant soigneusement à ce que nous attendons de différents types de relations – que ce soit avec les humains ou l’IA – nous pouvons aider à garantir que ces technologies améliorent plutôt que de diminuer nos vies.