Google apporte des correctifs aux résumés de recherche générés par l'IA après que des réponses farfelues soient devenues virales

Google apporte des correctifs aux résumés de recherche générés par l'IA après que des réponses farfelues soient devenues virales

Google a déclaré vendredi avoir fait « plus d'une douzaine d'améliorations techniques » à ses systèmes d’intelligence artificielle après que son moteur de recherche réorganisé ait été découvert en train de cracher des informations erronées.

L'entreprise technologique a lancé une refonte de son moteur de recherche à la mi-mai, qui fournit fréquemment des résumés générés par l'IA en plus des résultats de recherche. Peu de temps après, les utilisateurs des réseaux sociaux ont commencé à partager des captures d’écran de ses réponses les plus farfelues.

Google a largement défendu sa fonctionnalité de présentation de l'IA, affirmant qu'elle est généralement précise et qu'elle a été testée de manière approfondie au préalable. Mais Liz Reid, responsable de l'activité de recherche de Google, a reconnu vendredi dans un article de blog que « des aperçus de l'IA étranges, inexacts ou inutiles sont certainement apparus. »

Même si de nombreux exemples étaient stupides, d’autres étaient des mensonges dangereux ou nuisibles. Pour ajouter à la fureur, certaines personnes ont également réalisé de fausses captures d'écran prétendant montrer des réponses encore plus ridicules que Google n'a jamais générées. Quelques-uns de ces contrefaçons ont également été largement partagés sur les réseaux sociaux.

La semaine dernière, Associated Press a demandé à Google quels champignons sauvages manger, et il a répondu par un long résumé généré par l'IA qui était pour l'essentiel techniquement correct, mais « il manque de nombreuses informations qui pourraient potentiellement être écoeurantes, voire mortelles, » a déclaré Mary Catherine Aime, professeur de mycologie et de botanique à l'Université Purdue, qui a examiné la réponse de Google à la requête de l'AP.

Par exemple, des informations sur les champignons appelés puffballs étaient « plus ou moins correct, » » a-t-elle dit, mais l'aperçu de Google mettait l'accent sur la recherche de ceux à chair blanche et solide, ce que possèdent également de nombreux imitateurs de puffball potentiellement mortels.

Dans un autre exemple largement partagé, un chercheur en IA a demandé à Google combien de musulmans avaient été président des États-Unis, et l’entreprise a répondu avec assurance avec une théorie du complot longtemps démystifiée : « Les États-Unis ont eu un président musulman, Barack Hussein Obama. »

La semaine dernière, Google a apporté une solution immédiate pour éviter une répétition de l'erreur d'Obama, car elle violait les politiques de contenu de l'entreprise.

Dans d'autres cas, Reid a déclaré vendredi qu'il avait cherché à apporter des améliorations plus larges, telles qu'une meilleure détection des « requêtes absurdes »-Par exemple, « Combien de pierres dois-je manger ? »- cela ne devrait pas être répondu par un résumé de l'IA.

Les systèmes d’IA ont également été mis à jour pour limiter l’utilisation de contenus générés par les utilisateurs, tels que les publications sur les réseaux sociaux sur Reddit, susceptibles de donner des conseils trompeurs. Dans un exemple largement partagé, l'aperçu de l'IA de Google la semaine dernière s'est inspiré d'un commentaire satirique de Reddit pour suggérer d'utiliser de la colle pour que le fromage colle à la pizza.

Reid a déclaré que la société avait également ajouté davantage « déclenchement de restrictions » pour améliorer la qualité des réponses à certaines requêtes, comme par exemple sur la santé.

Mais on ne sait pas exactement comment cela fonctionne et dans quelles circonstances. Vendredi, l'AP a de nouveau demandé à Google quels champignons sauvages manger. Les réponses générées par l’IA sont intrinsèquement aléatoires, et la réponse la plus récente était différente mais néanmoins « problématique, » a déclaré Aime, l'expert en champignons Purdue qui est également président de la Mycological Society of America.

Par exemple, dire que « Les girolles ressemblent à des coquillages ou à des fleurs, ce n'est pas vrai, » dit-elle.

Les résumés de Google sont conçus pour fournir aux utilisateurs des réponses faisant autorité aux informations qu'ils recherchent le plus rapidement possible sans avoir à cliquer sur une liste classée de liens vers des sites Web.

Mais certains experts en IA mettent depuis longtemps en garde Google contre le fait de céder ses résultats de recherche à des réponses générées par l’IA, ce qui pourrait perpétuer les préjugés et la désinformation et mettre en danger les personnes cherchant de l’aide en cas d’urgence. Les systèmes d'IA connus sous le nom de grands modèles linguistiques fonctionnent en prédisant quels mots répondraient le mieux aux questions qui leur sont posées en fonction des données sur lesquelles ils ont été formés. Ils ont tendance à inventer des choses – un problème largement étudié connu sous le nom d’hallucination.

Dans son article de blog du vendredi, Reid a soutenu que les aperçus de l'IA de Google « en général, n'hallucinez pas et n'inventez pas les choses de la même manière que les autres. » Les produits basés sur de grands modèles linguistiques pourraient le faire parce qu'ils sont plus étroitement intégrés au moteur de recherche traditionnel de Google en affichant uniquement ce qui est sauvegardé par les meilleurs résultats Web.

« Lorsque les aperçus de l'IA se trompent, c'est généralement pour d'autres raisons : une mauvaise interprétation des requêtes, une mauvaise interprétation d'une nuance de langage sur le Web ou le fait de ne pas disposer de beaucoup d'informations intéressantes, » elle a écrit.

Mais ce type de recherche d'informations est censé être le cœur de métier de Google, a déclaré l'informaticien Chirag Shah, professeur à l'Université de Washington, qui a mis en garde contre la tendance à confier la recherche aux modèles linguistiques de l'IA. Même si la fonctionnalité IA de Google est « techniquement, je n'invente pas des trucs qui n'existent pas, » il continue de rapporter de fausses informations – qu’elles soient générées par l’IA ou par l’homme – et de les intégrer dans ses résumés.

« Au contraire, c'est pire, car pendant des décennies, les gens ont fait confiance à au moins une chose de Google : leur recherche, » Shah a dit.