Comment l'IA de Google perd le contact avec la réalité

Comment l'IA de Google perd le contact avec la réalité

Google a déployé sa dernière fonctionnalité de recherche expérimentale sur Chrome, Firefox et le navigateur d'applications Google auprès de centaines de millions d'utilisateurs. « Aperçus de l'IA » vous évite de cliquer sur des liens en utilisant l'IA générative (la même technologie qui alimente le produit rival ChatGPT) pour fournir des résumés des résultats de recherche. Demandez « comment conserver les bananes fraîches plus longtemps » et il utilise l'IA pour générer un résumé utile de conseils tels que les conserver dans un endroit frais et sombre et à l'écart d'autres fruits comme les pommes.

Mais posez-lui une question de gauche et les résultats peuvent être désastreux, voire dangereux. Google s'efforce actuellement de résoudre ces problèmes un par un, mais il s'agit d'un désastre en matière de relations publiques pour le géant de la recherche et d'un jeu difficile.

AI Overviews vous indique utilement que « Whack-A-Mole est un jeu d'arcade classique dans lequel les joueurs utilisent un maillet pour frapper des taupes qui apparaissent au hasard pour gagner des points. Le jeu a été inventé au Japon en 1975 par le fabricant de divertissement TOGO et s'appelait à l'origine Mogura Taiji ou Mogura Tataki. »

Mais AI Overviews vous indique également que « les astronautes ont rencontré des chats sur la lune, joué avec eux et prodigué des soins ». Plus inquiétant encore, il recommande également « de manger au moins une petite pierre par jour » car « les pierres sont une source vitale de minéraux et de vitamines », et suggère de mettre de la colle dans la garniture de la pizza.

Pourquoi cela arrive-t-il?

L’un des problèmes fondamentaux est que les outils d’IA générative ne savent pas ce qui est vrai, mais seulement ce qui est populaire. Par exemple, il n'y a pas beaucoup d'articles sur le Web sur la consommation de pierres, car c'est évidemment une mauvaise idée.

Il existe cependant un article satirique très lu de The Onion sur la consommation de pierres. L’IA de Google a donc basé son résumé sur ce qui était populaire et non sur ce qui était vrai.

Manger une pierre par jour, mettre de la colle sur sa pizza : comment l'IA de Google perd le contact avec la réalité

Un autre problème est que les outils d’IA générative n’ont pas nos valeurs. Ils sont formés sur une grande partie du Web.

Et même si des techniques sophistiquées (qui portent des noms exotiques tels que « apprentissage par renforcement à partir du feedback humain » ou RLHF) sont utilisées pour éliminer le pire, il n'est pas surprenant qu'elles reflètent certains des préjugés, des théories du complot et pire encore que l'on trouve sur le Web. En effet, je suis toujours étonné de voir à quel point les chatbots IA sont polis et bien élevés, compte tenu de ce sur quoi ils sont formés.

Est-ce l'avenir de la recherche ?

Si tel est vraiment l’avenir de la recherche, alors nous nous retrouverons dans une aventure semée d’embûches. Bien entendu, Google rattrape OpenAI et Microsoft.

Les incitations financières pour mener la course à l’IA sont immenses. Google se montre donc moins prudent que par le passé en mettant la technologie entre les mains des utilisateurs.

En 2023, le directeur général de Google, Sundar Pichai, a déclaré : « Nous avons été prudents. Il y a des domaines dans lesquels nous avons choisi de ne pas être les premiers à lancer un produit. Nous avons mis en place de bonnes structures autour d'une IA responsable. pour nous voir prendre notre temps. »

Cela ne semble plus être aussi vrai, car Google répond aux critiques selon lesquelles il est devenu un concurrent important et léthargique.

Un geste risqué

C'est une stratégie risquée pour Google. Cela risque de perdre la confiance du public dans Google, qui est le lieu idéal pour trouver des réponses (correctes) à ses questions.

Mais Google risque également de mettre à mal son propre modèle économique d’un milliard de dollars. Si on ne clique plus sur les liens, il suffit de lire leur résumé, comment Google continue-t-il à gagner de l'argent ?

Les risques ne se limitent pas à Google. Je crains qu’une telle utilisation de l’IA ne soit préjudiciable à la société dans son ensemble. La vérité est déjà une idée quelque peu contestée et fongible. Les contrevérités de l’IA risquent d’aggraver la situation.

Dans une décennie, nous pourrions considérer 2024 comme l'âge d'or du Web, lorsque la majeure partie de celui-ci était du contenu généré par l'homme, avant que les robots ne prennent le dessus et ne remplissent le Web de contenu synthétique et de moins en moins qualité généré par l'IA. .

L’IA a-t-elle commencé à respirer ses propres gaz d’échappement ?

La deuxième génération de grands modèles de langage est probablement et involontairement formée sur certains des résultats de la première génération. Et de nombreuses startups d’IA vantent les avantages de la formation sur des données synthétiques générées par l’IA.

Mais la formation sur les gaz d’échappement des modèles d’IA actuels risque d’amplifier même de petits biais et erreurs. Tout comme respirer les gaz d’échappement est mauvais pour les humains, c’est mauvais pour l’IA.

Ces préoccupations s’inscrivent dans un contexte beaucoup plus vaste. À l’échelle mondiale, plus de 400 millions de dollars américains (600 millions de dollars australiens) sont investis chaque jour dans l’IA. Et les gouvernements commencent tout juste à prendre conscience de l’idée que nous pourrions avoir besoin de garde-fous et de réglementations pour garantir que l’IA soit utilisée de manière responsable, compte tenu de ce torrent d’investissements.

Les sociétés pharmaceutiques ne sont pas autorisées à commercialiser des médicaments nocifs. Les constructeurs automobiles non plus. Mais jusqu’à présent, les entreprises technologiques ont été largement autorisées à faire ce qu’elles voulaient.

Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lisez l'article original.La conversation