Le contenu en ligne généré par l’IA et par l’homme est considéré comme tout aussi crédible, selon une étude
À une époque où Internet est devenu la principale source d’information pour de nombreuses personnes, la crédibilité du contenu en ligne et de ses sources a atteint un point critique. Cette préoccupation est intensifiée par la prolifération d’applications d’intelligence artificielle (IA) générative telles que ChatGPT et Google Bard.
Contrairement aux plateformes traditionnelles telles que Wikipédia, qui reposent sur du contenu généré et organisé par l’homme, ces systèmes basés sur l’IA génèrent du contenu de manière autonome, souvent avec des erreurs. Une étude récemment publiée, menée conjointement par des chercheurs de l’Université des sciences appliquées de Mayence et de l’Université Johannes Gutenberg de Mayence (JGU), se penche sur la manière dont les utilisateurs perçoivent la crédibilité du contenu généré par l’homme et par l’IA dans différentes interfaces utilisateur. Plus de 600 participants anglophones ont pris part à l’étude.
Comme l’a souligné le professeur Martin Huschens, professeur de systèmes d’information à l’Université des sciences appliquées de Mayence et l’un des auteurs de l’étude : « Notre étude a révélé des résultats vraiment surprenants. Elle a montré que les participants à notre étude évaluaient le contenu généré par l’IA et par l’homme. comme tout aussi crédible, quelle que soit l’interface utilisateur.
Il a ajouté : « Ce qui est encore plus fascinant, c’est que les participants ont évalué le contenu généré par l’IA comme étant plus clair et plus attrayant, bien qu’il n’y ait pas de différences significatives en termes d’autorité perçue du message et de fiabilité – même si le contenu généré par l’IA présente toujours un risque élevé. d’erreur, d’incompréhension et de comportement hallucinatoire.
L’étude met en lumière l’état actuel de la perception et de l’utilisation des contenus générés par l’IA ainsi que les risques associés. À l’ère du numérique, où l’information est facilement accessible, les utilisateurs doivent faire preuve de discernement et d’esprit critique. L’équilibre entre la commodité des applications basées sur l’IA et l’utilisation responsable des informations est crucial. À mesure que le contenu généré par l’IA se généralise, les utilisateurs doivent rester conscients des limites et des préjugés inhérents à ces systèmes.
Le professeur Franz Rothlauf, professeur de systèmes d’information à l’université Johannes Gutenberg de Mayence, a ajouté : « Les résultats de l’étude montrent qu’à l’ère de ChatGPT, nous ne sommes plus en mesure de faire la distinction entre le langage humain et machine et la production de texte. pas « savoir », mais s’appuie sur des suppositions statistiques, nous aurons besoin d’un étiquetage obligatoire des connaissances générées par les machines à l’avenir. Sinon, la vérité et la fiction se confondront et les gens ne pourront pas faire la différence.
Sensibiliser les utilisateurs à une utilisation responsable des contenus générés par l’IA reste une tâche de communication scientifique et, surtout, un défi social et politique.
L’étude est publiée sur le arXiv serveur de préimpression.