Comment ChatGPT va-t-il changer notre façon de penser et de travailler ?

Un chercheur explique la promesse et le danger de laisser ChatGPT et ses cousins ​​effectuer des recherches sur le Web pour vous

Crédit : domaine public Unsplash/CC0

Le modèle prédominant d’accès à l’information avant que les moteurs de recherche ne deviennent la norme – les bibliothécaires et les experts en matière ou en recherche fournissant des informations pertinentes – était interactif, personnalisé, transparent et faisant autorité. Les moteurs de recherche sont le principal moyen pour la plupart des gens d’accéder à l’information aujourd’hui, mais entrer quelques mots-clés et obtenir une liste de résultats classés par une fonction inconnue n’est pas idéal.

Une nouvelle génération de systèmes d’accès à l’information basés sur l’intelligence artificielle, qui comprend Microsoft Bing/ChatGPT, Google/Barde et Méta/LAMA, bouleverse le mode d’entrée et de sortie de recherche traditionnel des moteurs de recherche. Ces systèmes sont capables de prendre des phrases complètes et même des paragraphes en entrée et de générer des réponses personnalisées en langage naturel.

À première vue, cela peut sembler être le meilleur des deux mondes : des réponses personnalisées et personnalisées combinées à l’étendue et à la profondeur des connaissances sur Internet. Mais en tant que chercheur qui étudie les systèmes de recherche et de recommandationje crois que l’image est mitigée au mieux.

Les systèmes d’IA comme ChatGPT et Bard sont construits sur de grands modèles de langage. Un modèle de langage est une technique d’apprentissage automatique qui utilise un grand nombre de textes disponibles, tels que des articles de Wikipedia et PubMed, pour apprendre des modèles. En termes simples, ces modèles déterminent quel mot est susceptible de venir ensuite, étant donné un ensemble de mots ou une phrase. Ce faisant, ils sont capables de générer des phrases, des paragraphes et même des pages qui correspondent à une requête d’un utilisateur. Le 14 mars 2023, OpenAI a annoncé la prochaine génération de la technologie, GPT-4, qui fonctionne avec la saisie de texte et d’imageet Microsoft a annoncé que son conversationnel Bing est basé sur GPT-4.

Grâce à la formation sur de grands corps de texte, au réglage fin et à d’autres méthodes basées sur l’apprentissage automatique, ce type de technique de recherche d’informations fonctionne assez efficacement. Les grands systèmes basés sur des modèles de langage génèrent des réponses personnalisées pour répondre aux demandes d’informations. Les gens ont trouvé les résultats si impressionnants que ChatGPT a atteint 100 millions d’utilisateurs en un tiers du temps qu’il a fallu à TikTok pour atteindre ce jalon. Les gens l’ont utilisé non seulement pour trouver des réponses, mais pour générer des diagnostics, créer des plans de régime et faire des recommandations d’investissement.

Opacité et « hallucinations »

Cependant, il y a beaucoup d’inconvénients. Considérons d’abord ce qui est au cœur d’un grand modèle de langage – un mécanisme par lequel il relie les mots et vraisemblablement leurs significations. Cela produit une sortie qui ressemble souvent à une réponse intelligente, mais les grands systèmes de modèles de langage sont connu pour produire des déclarations presque répétées sans réelle compréhension. Ainsi, bien que la sortie générée par de tels systèmes puisse sembler intelligente, il ne s’agit que d’un reflet des modèles de mots sous-jacents que l’IA a trouvés dans un contexte approprié.

Cette limitation rend les grands systèmes de modèles de langage susceptibles de constituer ou réponses « hallucinantes ». Les systèmes ne sont pas non plus assez intelligents pour comprendre la prémisse incorrecte d’une question et répondre de toute façon aux questions erronées. Par exemple, lorsqu’on lui demande quel est le visage du président américain sur le billet de 100 $, ChatGPT répond à Benjamin Franklin sans se rendre compte que Franklin n’a jamais été président et que la prémisse selon laquelle le billet de 100 $ comporte une photo d’un président américain est incorrecte.

Le problème est que même lorsque ces systèmes ne sont erronés que 10 % du temps, vous ne savez pas lesquels 10 %. Les gens n’ont pas non plus la capacité de valider rapidement les réponses des systèmes. C’est parce que ces systèmes manquent de transparence – ils ne révèlent pas sur quelles données ils sont formés, quelles sources ils ont utilisées pour trouver des réponses ou comment ces réponses sont générées.

Par exemple, vous pouvez demander à ChatGPT de rédiger un rapport technique avec des citations. Mais souvent il compose ces citations— « hallucinant » les titres des articles scientifiques ainsi que les auteurs. Les systèmes ne valident pas non plus l’exactitude de leurs réponses. Cela laisse la validation à l’utilisateur, et les utilisateurs peuvent ne pas avoir la motivation ou les compétences pour le faire ou même reconnaître la nécessité de vérifier les réponses d’une IA.

Voler du contenu et du trafic

Si le manque de transparence peut être préjudiciable aux utilisateurs, il est également injuste pour les auteurs, les artistes et les créateurs du contenu original dont les systèmes ont appris, car les systèmes ne révèlent pas leurs sources ou ne fournissent pas une attribution suffisante. Dans la plupart des cas, les créateurs sont pas compensé ou crédité ou avoir la possibilité de donner leur consentement.

Il y a aussi un aspect économique à cela. Dans un environnement de moteur de recherche typique, les résultats sont affichés avec les liens vers les sources. Cela permet non seulement à l’utilisateur de vérifier les réponses et fournit les attributions à ces sources, mais aussi génère du trafic pour ces sites. Bon nombre de ces sources dépendent de ce trafic pour leurs revenus. Étant donné que les grands systèmes de modèles linguistiques produisent des réponses directes, mais pas les sources dont ils se sont inspirés, je pense que ces sites verront probablement leurs sources de revenus diminuer.

Emporter l’apprentissage et la sérendipité

Enfin, cette nouvelle façon d’accéder à l’information peut aussi déresponsabiliser les gens et leur enlève leur chance d’apprendre. Un processus de recherche typique permet aux utilisateurs d’explorer l’éventail des possibilités pour leurs besoins d’information, les incitant souvent à ajuster ce qu’ils recherchent. Cela leur offre également une l’occasion d’apprendre ce qui existe et comment divers éléments d’information se connectent pour accomplir leurs tâches. Et cela permet de rencontres fortuites ou sérendipité.

Ce sont des aspects très importants de la recherche, mais lorsqu’un système produit les résultats sans montrer ses sources ou guider l’utilisateur à travers un processus, il le prive de ces possibilités.

Les grands modèles de langage sont un grand pas en avant pour l’accès à l’information, offrant aux gens un moyen d’avoir des interactions basées sur le langage naturel, de produire des réponses personnalisées et de découvrir des réponses et des modèles qui sont souvent difficiles à trouver pour un utilisateur moyen. Mais ils ont de sérieuses limites en raison de la façon dont ils apprennent et construisent les réponses. Leurs réponses peuvent être faux, toxique ou biaisé.

Alors que d’autres systèmes d’accès à l’information peuvent également souffrir de ces problèmes, les grands systèmes d’IA à modèle linguistique manquent également de transparence. Pire encore, leurs réponses en langage naturel peuvent aider à alimenter un faux sentiment de confiance et d’autorité qui peut être dangereux pour les utilisateurs non avertis.

Fourni par La Conversation