ChatGPT ne peut pas vous mentir, mais vous ne devriez toujours pas lui faire confiance, dit le philosophe

ChatGPT ne peut pas vous mentir, mais vous ne devriez toujours pas lui faire confiance, dit le philosophe

Crédit : Chuan Chuan/Shutterstock

« ChatGPT est une plate-forme de génération de langage naturel basée sur le modèle de langage OpenAI GPT-3. »

Pourquoi avez-vous cru la déclaration ci-dessus ? Une réponse simple est que vous faites confiance à l’auteur de cet article (ou peut-être à l’éditeur). Nous ne pouvons pas vérifier tout ce qu’on nous dit, c’est pourquoi nous nous fions régulièrement aux témoignages d’amis, d’inconnus, d' »experts » et d’institutions.

Faire confiance à quelqu’un n’est pas toujours la principale raison de croire que ce qu’il dit est vrai. (Je sais peut-être déjà ce que vous m’avez dit, par exemple.) Mais le fait que nous fassions confiance à l’orateur nous donne une motivation supplémentaire pour croire ce qu’il dit.

IA chatbots soulèvent donc des questions intéressantes sur la confiance et le témoignage. Nous devons nous demander si nous faisons confiance à ce que nous disent les générateurs de langage naturel comme ChatGPT. Une autre question est de savoir si ces chatbots IA sont même capables d’être dignes de confiance.

Croyances justifiées

Supposons que vous me disiez qu’il pleut dehors. Selon une façon dont les philosophes voient le témoignage, je ne suis fondé à vous croire que si j’ai des raisons de penser que votre témoignage est fiable – par exemple, vous étiez juste à l’extérieur – et aucune raison impérieuse de penser qu’il ne l’est pas. C’est ce qu’on appelle la théorie réductionniste du témoignage.

Ce point de vue rend les croyances justifiées – des hypothèses que nous nous sentons en droit de défendre – difficiles à acquérir.

Mais selon une autre vision du témoignage, je serais fondé à croire qu’il pleut dehors tant que je n’ai aucune raison de penser que cette affirmation est fausse. Cela rend les croyances justifiées par le témoignage beaucoup plus faciles à acquérir. C’est ce qu’on appelle la théorie non réductionniste du témoignage.

Notez qu’aucune de ces théories n’implique la confiance dans le locuteur. Ma relation avec eux est une relation de confiance, pas de confiance.

Confiance et confiance

Lorsque je compte sur quelqu’un ou quelque chose, je prédis qu’il fera ce que j’attends de lui. Par exemple, je compte sur mon réveil pour qu’il sonne à l’heure que je l’ai réglée, et je compte sur les autres conducteurs pour respecter le code de la route.

La confiance, cependant, est plus que simple confiance. Pour illustrer cela, examinons nos réactions à la confiance mal placée par rapport à la confiance mal placée.

Si je faisais confiance à Roxy pour arroser mes tulipes primées pendant mes vacances et qu’elle les laissait mourir négligemment, je pourrais à juste titre me sentir trahi. Alors que si je comptais sur mon arroseur automatique pour arroser les tulipes et qu’il ne fonctionnait pas, je serais peut-être déçu mais j’aurais tort de me sentir trahi.

En d’autres termes, la confiance nous rend vulnérables à la trahison, donc être digne de confiance est moralement significatif d’une manière qu’être fiable ne l’est pas.

La différence entre la confiance et la dépendance met en lumière certains points importants concernant le témoignage. Lorsqu’une personne dit à quelqu’un qu’il pleut, elle ne se contente pas de partager des informations ; ils assument la responsabilité de la véracité de ce qu’ils disent.

En philosophie, cela s’appelle théorie de l’assurance du témoignage. Un locuteur offre à l’auditeur une sorte de garantie que ce qu’il dit est vrai et, ce faisant, donne à l’auditeur une raison de le croire. Nous faisons confiance à l’orateur, plutôt que de compter sur lui, pour dire la vérité.

Si je découvrais que vous deviniez à propos de la pluie mais que, heureusement, vous aviez raison, j’aurais toujours l’impression que ma confiance avait été déçue parce que votre « garantie » était vide. L’aspect assurance aide également à comprendre pourquoi les mensonges nous semblent moralement pires que les fausses déclarations. Alors que dans les deux cas, vous m’invitez à faire confiance, puis vous laissez tomber ma confiance, les mensonges tentent d’utiliser ma confiance contre moi pour faciliter la trahison.

Agent moral

Si le point de vue de l’assurance est correct, alors ChatGPT doit être capable d’assumer la responsabilité de ce qu’il dit afin d’être un orateur digne de confiance, plutôt que simplement fiable. Bien qu’il semble que nous puissions raisonnablement attribuer de l’agence à l’IA pour effectuer les tâches requises, la question de savoir si une IA pourrait être un agent moralement responsable est une toute autre question.

Quelques philosophes soutiennent que l’agence morale n’est pas limitée aux êtres humains. D’autres soutiennent que les IA ne peuvent être tenues moralement responsables car, pour citer quelques exemples, elles sont incapables d’états mentaux, manquent d’autonomie ou n’ont pas la capacité de raisonnement moral.

Néanmoins, ChatGPT n’est pas un agent moral ; il ne peut pas assumer la responsabilité de ce qu’il dit. Quand il nous dit quelque chose, il n’offre aucune assurance quant à sa véracité. C’est pourquoi il peut faire de fausses déclarations, mais pas mentir. Sur son site Web, OpenAI – qui a construit ChatGPT – dit que parce que l’IA est formée sur les données d’Internet, elle « peut parfois être inexacte, mensongère et autrement trompeuse ».

Au mieux, il s’agit d’un «vérificateur» ou d’un vérificateur de faits – et par de nombreux comptes, pas particulièrement précis. Bien que nous puissions parfois être justifiés de nous fier à ce qu’il dit, nous ne devrions pas lui faire confiance.

Au cas où vous vous poseriez la question, la première citation de cet article était un extrait de la réponse de ChatGPT lorsque je lui ai demandé : « Qu’est-ce que ChatGPT ? » Vous n’auriez donc pas dû croire que la déclaration était vraie. Cependant, je peut vous assurer que c’est le cas.

Fourni par La Conversation