Peut-on faire confiance aux moteurs de recherche basés sur l'IA comme SearchGPT d'OpenAI ? Un expert est « extrêmement sceptique »

Peut-on faire confiance aux moteurs de recherche basés sur l'IA comme SearchGPT d'OpenAI ? Un expert est « extrêmement sceptique »

OpenAI, la société derrière ChatGPT, vient de lancer sa attaque la plus directe contre Google à ce jour.

La société a dévoilé sa vision de la recherche sur le Web avec le lancement de SearchGPT, un nouvel outil de recherche temporaire qu'elle prototype en partenariat avec certains des plus grands noms de l'édition, notamment The Atlantic, Vox Media et News Corp.

Qu'il s'agisse de demander les prévisions météorologiques du jour, un aperçu des derniers titres mondiaux, des détails sur les concerts à venir dans la région ou les ingrédients des repas, le nouvel outil donne aux utilisateurs des réponses directes à leurs questions et inclut des attributions et des liens Web vers des sources, explique OpenAI.

SearchGPT n'est pas un produit officiel accessible à tous. OpenAI a déclaré qu'il mettrait l'outil à la disposition d'un petit nombre d'utilisateurs et d'éditeurs dans les semaines à venir, le temps de peaufiner le produit avant de l'intégrer éventuellement à ChatGPT. Les utilisateurs intéressés peuvent s'inscrire pour rejoindre une liste d'attente.

Un chercheur en intelligence artificielle et en communication de l'Université Northeastern affirme que l'approche d'OpenAI avec SearchGPT est un pas dans la bonne direction puisqu'elle travaille avec des éditeurs et n'utilise pas leur travail sans autorisation ni attribution, mais elle présentera probablement toujours les mêmes problèmes fondamentaux profonds que toutes les grandes technologies de modèles linguistiques.

« Il n’y a toujours pas de véritable intelligence, juste une recherche de modèles sans contexte basée sur la langue, donc il y a toujours une bonne chance que certaines des informations recueillies soient trompeuses ou carrément absurdes », explique Michael Ann DeVito, professeur d’informatique et d’études de communication à Northeastern. « Je tiens également à souligner que l’entraînement sur le contenu des actualités, bien que probablement meilleur que l’entraînement sur les seules données publiques de l’Internet, présente toujours ses propres problèmes de biais intégrés. »

Le système SearchGPT est similaire au moteur de recherche de Perplexity AI, qui fournit également des réponses résumées et des liens vers des sources, bien que cette société ait été critiquée par les éditeurs pour avoir supprimé le travail des journalistes sans autorisation.

Google possède également ses propres produits d'intelligence artificielle, notamment son chatbot (Gemini) et sa fonction de recherche (AI Overview). Le service AI Overview a connu des débuts difficiles au printemps, lorsqu'il a fourni aux utilisateurs des informations inexactes dans leurs résultats de recherche, suggérant aux gens de manger des pierres et de mettre de la colle sur la pizza.

La rumeur courait depuis longtemps qu'OpenAI travaillait sur un produit de recherche pour concurrencer Google, d'autant plus qu'il a commencé à conclure des accords avec des éditeurs de presse et des plateformes en ligne telles que Reddit au cours de l'année écoulée.

De nombreux utilisateurs ont déjà utilisé ChatGPT comme pseudo-outil de recherche en raison de sa rapidité et de sa nature conversationnelle. Le chatbot est cependant connu pour ses « hallucinations » et le partage de fausses informations.

DeVito affirme que ces technologies apparaissent à un moment où l’éducation aux médias du grand public a chuté au cours des dix dernières années, ce qui rend plus difficile pour les gens de distinguer une bonne source d’information d’une mauvaise.

« Nous avons malheureusement beaucoup reculé au cours des dix dernières années », dit-elle. « Nous en sommes arrivés à ce modèle où nous disons : « Vous trouverez ce que vous cherchez sur Internet. » Mais nous n'avons pas appris aux gens comment faire cela correctement. »

ChatGPT, de son côté, indique au bas de sa page Web que ChatGPT peut commettre des erreurs et qu'il est important que les utilisateurs vérifient les informations. Mais DeVito estime que cet avertissement n'est pas suffisant.

« C'est un peu comme lorsque les petits avertissements sur les cigarettes étaient minuscules. Est-ce que c'était suffisant ? Non, absolument pas », ajoute-t-elle. « Nous avons commencé à voir des progrès en matière de santé publique lorsque nous avons rendu les étiquettes d'avertissement énormes et graphiques. Il faut attirer l'attention des gens avec l'avertissement autant qu'avec le reste de l'interface, et les avertissements que les gens affichent sont équivalents au beau texte que personne ne devrait lire. »

Dans le meilleur des cas, ces outils devraient être considérés comme de nouveaux jouets avec lesquels s'amuser et « non comme des outils essentiels à la mission », dit-elle.

« Je dirais qu'il est préférable de ne pas les utiliser », dit-elle. « Si vous comptez les utiliser, je serais extrêmement sceptique quant à ce que vous en tirerez. Vous devez tout vérifier à deux reprises. Honnêtement, le temps que vous mettrez à le faire sera plus long que de simplement chercher par vous-même. »