En fait, l'IA est une «calculatrice de mots» - mais pas dans le sens où vous pourriez penser

En fait, l'IA est une «calculatrice de mots» – mais pas dans le sens où vous pourriez penser

Tentatives de communiquer ce qu'est l'intelligence artificielle générative (IA) et ce qu'elle a produit une gamme de métaphores et d'analogies.

D'une « boîte noire » à « la saisie automatique sur les stéroïdes, » un « perroquet », et même une paire de « baskets », l'objectif est de comprendre une technologie complexe accessible en la fondant dans les expériences quotidiennes – même si la comparaison qui en résulte est souvent à l'excès ou trompeur.

Une analogie de plus en plus répandue décrit l'IA génératrice comme une «calculatrice pour les mots». Pupuchisé en partie par le directeur général d'Openai, Sam Altman, la comparaison de la calculatrice suggère que, tout comme les objets plastiques familiers que nous avons utilisés pour croquer les nombres en classe de mathématiques, le but des outils d'IA génératifs est de nous aider à croquer de grandes quantités de données linguistiques.

L'analogie de la calculatrice a été critiquée à juste titre, car elle peut obscurcir les aspects les plus troublants de l'IA générative. Contrairement aux chatbots, les calculatrices n'ont pas de biais intégrés, ils ne font pas d'erreurs et ils ne posent pas de dilemmes éthiques fondamentaux.

Pourtant, il y a aussi un danger à rejeter complètement cette analogie, étant donné qu'à la base, les outils d'IA génératifs sont des calculatrices de mots.

Ce qui compte, cependant, n'est pas l'objet lui-même, mais la pratique du calcul. Et les calculs dans les outils d'IA génératifs sont conçus pour imiter ceux qui sous-tendent le langage humain quotidien.

Les langues ont des statistiques cachées

La plupart des utilisateurs de langues ne sont qu'indirectement conscients de la mesure dans laquelle leurs interactions sont le produit de calculs statistiques.

Pensez, par exemple, sur l'inconfort d'entendre quelqu'un dire « poivre et sel » plutôt que « sel et poivre ». Ou le look étrange que vous obtiendriez si vous commandiez « thé puissant » plutôt que « thé fort » dans un café.

Les règles qui régissent la façon dont nous sélectionnons et commandons les mots, et de nombreuses autres séquences dans le langage, proviennent de la fréquence de nos rencontres sociales avec eux. Plus vous entendez souvent quelque chose dit d'une certaine manière, moins aucune alternative sonnera viable. Ou plutôt, moins, toute autre séquence calculée semblera plausible.

En linguistique, le vaste champ dédié à l'étude du langage, ces séquences sont appelées «collocations». Ce ne sont que l'un des nombreux phénomènes qui montrent comment les humains calculent les modèles multi-mots en fonction de leur « bon sens », qu'ils soient appropriés, naturels et humains.

Pourquoi la sortie de chatbot «se sent bien»

L'une des réalisations centrales des modèles de grandes langues (LLM) – et donc des chatbots – est qu'ils ont réussi à formaliser ce facteur de «bien-être» d'une manière qui trompe désormais l'intuition humaine.

En fait, ce sont quelques-uns des systèmes de collocation les plus puissants au monde.

En calculant les dépendances statistiques entre les jetons (que ce soit des mots, des symboles ou des points de couleur) à l'intérieur d'un espace abstrait qui mappe leurs significations et leurs relations, AI produit des séquences qui, à ce stade, non seulement passent en tant qu'humain dans le test de Turing, mais peut-être plus instable, peuvent faire en sorte que les utilisateurs tombent amoureux d'eux.

Une des principales raisons pour lesquelles ces développements sont possibles ont à voir avec les racines linguistiques de l'IA générative, qui sont souvent enterrées dans le récit du développement de la technologie. Mais les outils d'IA sont autant un produit de l'informatique que de différentes branches de linguistique.

Les ancêtres des LLM contemporains tels que GPT-5 et Gemini sont les outils de traduction automatique de l'ère de la guerre froide, conçus pour traduire le russe en anglais. Avec le développement de la linguistique sous des chiffres tels que Noam Chomsky, cependant, l'objectif de ces machines est passé d'une simple traduction au décodage des principes du traitement du langage naturel (c'est-à-dire humain).

Le processus de développement de LLM s'est produit par étapes, à partir des tentatives de mécaniser les « règles » (telles que la grammaire) des langues, à travers des approches statistiques qui ont mesuré les fréquences de séquences de mots basées sur des ensembles de données limités et à des modèles actuels qui utilisent des réseaux de neurones pour générer un langage fluide.

Cependant, la pratique sous-jacente du calcul des probabilités est restée la même. Bien que l'échelle et la forme aient été incommensurablement modifiées, les outils d'IA contemporains sont toujours des systèmes statistiques de reconnaissance de motifs.

Ils sont conçus pour calculer la façon dont nous «langue» sur les phénomènes tels que la connaissance, le comportement ou les émotions, sans accès direct à aucun d'entre eux. Si vous invitez un chatbot tel que le chatppt pour « révéler » ce fait, il obligera facilement.

L'IA est toujours juste de calculer

Alors pourquoi ne reconnaissons-nous pas facilement cela?

L'une des principales raisons concerne la façon dont les entreprises décrivent et nomment les pratiques des outils génératifs de l'IA. Au lieu de «calculer», des outils d'IA génératifs sont des «réflexions», du «raisonnement», de la «recherche» ou même du «rêve».

L'implication est qu'en craquant l'équation de la façon dont les humains utilisent les modèles de langage, l'IA générative a eu accès aux valeurs que nous transmettons via la langue.

Mais du moins pour l'instant, ce n'est pas le cas.

Il peut calculer que «je» et «vous» sont le plus susceptibles de se collocaliser avec «l'amour», mais ce n'est ni un «je» (ce n'est pas une personne), et il ne comprend pas «l'amour», ni d'ailleurs, vous – l'utilisateur écrivant les invites.

L'IA générative ne fait toujours pas de calcul. Et nous ne devons pas le confondre avec plus.