Comment ChatGPT va-t-il changer notre façon de penser et de travailler ?

Comment ChatGPT va-t-il changer notre façon de penser et de travailler ?

Crédit : domaine public Unsplash/CC0

Depuis son lancement public en novembre 2022, ChatGPT a capté l’attention du monde entier, montrant à des millions d’utilisateurs du monde entier l’extraordinaire potentiel de l’intelligence artificielle alors qu’il produit des réponses à consonance humaine à des demandes allant du pratique au surréaliste. Il a rédigé des lettres de motivation, composé des lignes de poésie, fait semblant d’être William Shakespeare, conçu des messages pour les utilisateurs d’applications de rencontres pour courtiser les matchs, et même écrit des articles de presse, le tout avec des résultats variables.

De ces applications prometteuses émergent également des dilemmes éthiques. Dans un monde de plus en plus dominé par des outils alimentés par l’IA qui peuvent imiter les capacités humaines du langage naturel, que signifie être véridique et authentique ? Le chercheur en communication de Stanford, Jeff Hancock, s’est attaqué à ce problème et à l’impact de l’IA sur les relations interpersonnelles dans ses recherches.

Hancock soutient que l’ère des tests de Turing est révolue : les bots semblent désormais si réels qu’il est devenu impossible pour les gens de faire la distinction entre les humains et les machines dans les conversations, ce qui pose d’énormes risques de manipulation et de tromperie à grande échelle. Comment alors ces outils peuvent-ils être utilisés pour le bien et non pour le mal est une question qui inquiète Hancock et d’autres.

S’il voit le potentiel de l’IA pour aider les gens à faire leur travail plus efficacement, Hancock voit également des pièges. En fin de compte, dit-il, notre défi sera de développer une IA qui soutienne les objectifs humains et d’éduquer les gens sur la meilleure façon d’utiliser ces nouvelles technologies de manière efficace et éthique.

Depuis plusieurs années maintenant, Hancock examine comment la communication par l’IA transforme – et potentiellement, sape – les relations interpersonnelles.

Cette interview a été modifiée pour plus de longueur et de clarté.

Comment voyez-vous les outils basés sur l’IA comme ChatGPT s’intégrer dans la vie des gens ?

Tout comme la calculatrice n’a pas remplacé le besoin de faire des maths ou pour les gens de travailler à la caisse ou d’être comptable, je pense que nous trouverons des moyens d’utiliser la communication via l’IA comme outil. Je pense que plus nous le considérons comme un assistant ou un outil incroyablement puissant, plus nous pouvons imaginer comment il sera utile. Mais il est important de noter que ces systèmes ne sont pas prêts à être prêts à l’emploi dès le départ. Ils n’en sont pas encore là, et nous non plus, nous ne sommes pas des humains.

ChatGPT est utilisé par des millions de personnes, dont beaucoup n’ont aucune formation ou éducation sur le moment où il est éthique d’utiliser ces systèmes ou sur la manière de s’assurer qu’ils ne causent pas de dommages.

Techniquement, des systèmes comme ChatGPT sont vraiment bien meilleurs que les choses que nous avons eues dans le passé, mais il y a encore beaucoup de problèmes. Ils ne fournissent pas actuellement d’informations précises à des taux très élevés. Les meilleurs produisent des informations utiles précis 50% ou 70% du temps, bien que cela changera probablement avec de nouvelles versions comme l’imminent GPT4. Ils peuvent aussi produire des mensonges ou inventer des trucs, ce que nous appelons « hallucinants ». Cela peut prendre beaucoup de travail pour les amener à produire quelque chose de bien. Les invites sont difficiles et produisent des réponses vraiment différentes.

Qu’avez-vous appris sur l’IA et la communication qui pourrait surprendre les gens ?

Mon laboratoire s’est beaucoup intéressé aux questions humaines autour de l’IA. Beaucoup de gens disent : « Je ne connais pas ces nouveaux robots, je n’en ai jamais utilisé. » Mais la plupart des gens ont fait l’expérience d’une sorte de communication par IA, la plus courante étant les réponses simples et intelligentes dans les e-mails qui offrent des options telles que « ça sonne bien », « c’est génial » ou « désolé, je ne peux pas ».

Ce que nous avons découvert, c’est que même si vous n’utilisez pas ces réponses générées par l’IA, elles influencent votre façon de penser. Ces trois options vous priment. Lorsque vous répondez à un e-mail, vous avez tendance à écrire un e-mail plus court. Vous avez tendance à écrire un e-mail plus simple. Et ce n’est tout simplement pas linguistiquement moins complexe : vous avez plus d’affect positif, ce qui signifie que vous utilisez plus de termes d’émotion positifs et moins de termes négatifs. C’est parce que c’est ainsi que sont construites les réponses intelligentes : elles sont très courtes, elles sont très simples et elles sont trop positives. Vous n’avez même pas besoin d’utiliser ces systèmes pour être réellement affectés par eux.

Y a-t-il des domaines en particulier où vous voyez une opportunité pour ChatGPT d’aider les gens à être meilleurs dans leur travail ou à le faire plus efficacement ?

Je pense qu’il y a un tout nouveau monde de communication dans lequel cela va inaugurer. Cela ressemble vraiment à un point d’inflexion. Par exemple, il y a un énorme potentiel dans les niveaux initiaux de thérapie et de coaching.

Dites que vous tergiversez au travail, ou que vous avez besoin d’aide pour négocier, ou que vous éprouvez de l’anxiété dans votre travail. Rencontrer un véritable conseiller ou coach est difficile et peut coûter cher. Ces systèmes offrent des moyens d’accéder à ce type d’aide, du moins aux premières étapes du travail sur un problème. Je pense que la meilleure combinaison sera lorsque ChatGPT pourra prendre en charge un véritable coach, qui pourra alors aider plus de personnes plus efficacement.

ChatGPT pourrait être utile pour effectuer une partie du travail de préparation que font les coachs lorsqu’ils essaient de comprendre les besoins de leurs clients. Parfois, ce sont des questions standard qu’un système comme ChatGPT pourrait être formé pour poser au client, puis synthétiser pour le coach. Cela pourrait potentiellement libérer le coach pour s’engager plus profondément avec ce client ou pour aider plus de clients.

Bien sûr, nous ne savons toujours pas comment les gens réagiront si des bots sont impliqués dans ce genre de conversations. Certains travaux que nous avons effectués il y a quelques années ont montré que les résultats émotionnels, relationnels et psychologiques des conversations avec des bots pouvaient être similaires à ceux avec un humain. Il y a du potentiel là-bas, mais il faudra certainement faire attention en introduisant ces types de systèmes dans une communication comme celle-ci.

Un domaine que vous étudiez est la confiance et la tromperie. Comment voyez-vous l’IA affecter la façon dont les gens se font confiance ?

Je pense que si la machine vous aide à être vous-même, alors je pense que vous pouvez être authentique. Les systèmes d’IA peuvent être optimisés pour une foule de choses et certaines d’entre elles peuvent être interpersonnelles. Vous pouvez dire : « Je veux une description de rencontre en ligne et je veux avoir l’air très drôle, chaleureux et ouvert. Je viens de faire un exercice en classe, demandant aux étudiants d’utiliser ChatGPT pour créer un profil de rencontre en ligne, et j’ai été choqué lorsque tous les étudiants ont dit que la description de ChatGPT était une représentation exacte d’eux-mêmes !

Ils ont également convenu qu’ils le modifieraient un peu, mais que c’était étonnamment bon. Cela pourrait vraiment aider une personne, en particulier pour les personnes qui souffrent d’anxiété de communication ou qui ne sont pas très douées pour s’exprimer.

Mais pour les personnes qui essaient d’utiliser ces descriptions comme des signaux de ce qu’est une personne, notre processus habituel de formation d’impression s’effondre parce que ce n’est pas vous qui êtes apparu comme très drôle, chaleureux et ouvert – c’était une machine faire ça pour toi. Nous aurons une grande responsabilité sur la façon dont nous utiliserons ces outils. Je pense qu’il s’agit vraiment de la façon dont nous, les humains, choisissons de l’utiliser.

Peut-on faire confiance à ces systèmes ?

Il y a beaucoup de questions techniques, comme comment l’IA a été développée. Une préoccupation répandue est que ces systèmes s’appuient sur des données biaisées pour la formation. Mais il y a aussi des questions philosophiques plus profondes autour de la conscience et de l’intention. Qu’est-ce que cela signifie pour une machine d’être trompeuse ?

Il peut mentir sur qui il est et parler d’une expérience vécue qu’il n’a pas eue, ce qui est trompeur. Mais la plupart des définitions de la tromperie incluent l’intention d’induire quelqu’un en erreur. Si le système n’a pas cette intention, est-il trompeur ? Cela revient-il à la personne qui posait les questions ou qui faisait en sorte que le système soit trompeur ? Je ne sais pas. Il y a plus de questions que de réponses à ce stade.

Vous étudiez également la désinformation. Qu’est-ce qui vous inquiète dans la façon dont l’IA peut être utilisée à des fins néfastes ?

Je tiens également à reconnaître qu’il existe ici de réels dangers d’abus. Renée DiResta, ma collègue et collaboratrice à l’Observatoire Internet de Stanford, a un rapport qui expose certaines des principales façons dont ces systèmes peuvent constituer une menace en matière de désinformation et les solutions possibles.

Comme le notent Renée et le rapport, une fois que les mauvais acteurs seront capables d’utiliser des modèles linguistiques pour mener des campagnes d’influence, ils pourront générer des quantités massives de contenu à peu de frais et développer potentiellement de nouvelles tactiques de persuasion à grande échelle. Il a le potentiel de transformer et d’exacerber le problème de la désinformation, et nous devons donc commencer à travailler sur des solutions dès maintenant.

Que peut-on faire pour authentifier la communication ?

Au cours de la dernière année environ, un certain nombre d’articles ont montré que ces grands modèles de langage et chatbots ne peuvent plus être différenciés de leurs homologues humains.

Alors, comment authentifier la communication est une grande question. Pour donner l’impression d’être authentique, vous pourriez dire : « Ceci a été écrit ou partiellement écrit par l’IA. » Si vous faites cela, vous êtes honnête, mais la recherche montre que les gens pourraient vous percevoir comme moins sincère – il y a un papier qui est sorti qui a trouvé si vous vous excusez et indiquez que vous avez utilisé l’IA pour vous aider à rédiger vos excuses, les gens le considèrent comme moins sincère.

Dans un de nos papiers, nous avons montré que si vous postulez à un emploi et dites que vous avez utilisé l’IA pour l’écrire, les gens vous percevront comme moins compétent. Il y a des coûts si vous divulguez que vous avez utilisé l’IA, mais si vous ne le divulguez pas, êtes-vous perçu comme inauthentique ? Ces questions autour de l’authenticité, de la tromperie et de la confiance vont être extrêmement importantes, et nous avons besoin de beaucoup plus de recherches pour nous aider à comprendre comment l’IA influencera la façon dont nous interagissons avec les autres humains.

Fourni par l’Université de Stanford