ChatGPT et d’autres IA génératives pourraient favoriser le déni et l’incompréhension scientifiques – voici comment vous pouvez être en alerte
Jusqu’à très récemment, si vous vouliez en savoir plus sur un sujet scientifique controversé – la recherche sur les cellules souches, la sécurité de l’énergie nucléaire, le changement climatique – vous faisiez probablement une recherche sur Google. Présenté avec plusieurs sources, vous avez choisi quoi lire, en sélectionnant les sites ou les autorités auxquels faire confiance.
Vous avez maintenant une autre option : vous pouvez poser votre question à ChatGPT ou à une autre plate-forme d’intelligence artificielle générative et recevoir rapidement une réponse succincte sous forme de paragraphe.
ChatGPT ne recherche pas sur Internet comme le fait Google. Au lieu de cela, il génère des réponses aux requêtes en prédisant les combinaisons de mots probables à partir d’un amalgame massif d’informations en ligne disponibles.
Bien qu’elle ait le potentiel d’améliorer la productivité, il a été démontré que l’IA générative présente des défauts majeurs. Cela peut produire de la désinformation. Cela peut créer des « hallucinations » – un terme bénin pour inventer des choses. Et cela ne résout pas toujours avec précision les problèmes de raisonnement. Par exemple, lorsqu’on lui a demandé si une voiture et un réservoir pouvaient passer par une porte, il n’a pas tenu compte à la fois de la largeur et de la hauteur. Néanmoins, il est déjà utilisé pour produire des articles et du contenu de sites Web que vous avez pu rencontrer, ou comme outil dans le processus d’écriture. Pourtant, il est peu probable que vous sachiez si ce que vous lisez a été créé par l’IA.
En tant qu’auteurs de « Science Denial : Why It Happens and What to Do About It », nous sommes préoccupés par la façon dont l’IA générative peut brouiller les frontières entre la vérité et la fiction pour ceux qui recherchent des informations scientifiques faisant autorité.
Chaque consommateur de médias doit être plus vigilant que jamais pour vérifier l’exactitude scientifique de ce qu’il lit. Voici comment rester vigilant dans ce nouveau paysage de l’information.
Comment l’IA générative pourrait promouvoir le déni de la science
Érosion de la confiance épistémique. Tous les consommateurs d’informations scientifiques dépendent des jugements des experts scientifiques et médicaux. La confiance épistémique est le processus de confiance dans les connaissances que vous obtenez des autres. Elle est fondamentale pour la compréhension et l’utilisation de l’information scientifique. Que quelqu’un cherche des informations sur un problème de santé ou essaie de comprendre des solutions au changement climatique, il a souvent une compréhension scientifique limitée et un accès limité aux preuves de première main. Avec un volume d’informations en ligne en croissance rapide, les gens doivent prendre des décisions fréquentes sur quoi et à qui faire confiance. Avec l’utilisation accrue de l’IA générative et le potentiel de manipulation, nous pensons que la confiance est susceptible de s’éroder davantage qu’elle ne l’a déjà fait.
Trompeur ou tout simplement faux. S’il y a des erreurs ou des biais dans les données sur lesquelles les plates-formes d’IA sont formées, cela peut se refléter dans les résultats. Dans nos propres recherches, lorsque nous avons demandé à ChatGPT de régénérer plusieurs réponses à la même question, nous avons obtenu des réponses contradictoires. Lorsqu’on lui a demandé pourquoi, il a répondu: « Parfois, je fais des erreurs. » Le problème le plus délicat avec le contenu généré par l’IA est peut-être de savoir quand il est faux.
Désinformation propagée intentionnellement. L’IA peut être utilisée pour générer une désinformation convaincante sous forme de texte ainsi que des images et des vidéos deepfakes. Lorsque nous avons demandé à ChatGPT d' »écrire sur les vaccins dans le style de la désinformation », il a produit une citation inexistante avec de fausses données. Geoffrey Hinton, ancien responsable du développement de l’IA chez Google, a démissionné pour être libre de tirer la sonnette d’alarme en disant : « Il est difficile de voir comment vous pouvez empêcher les mauvais acteurs de l’utiliser pour de mauvaises choses. » Le potentiel de créer et de diffuser des informations délibérément incorrectes sur la science existait déjà, mais c’est maintenant dangereusement facile.
Sources fabriquées. ChatGPT fournit des réponses sans aucune source, ou si on lui demande des sources, peut en présenter celles qu’il a inventées. Nous avons tous les deux demandé à ChatGPT de générer une liste de nos propres publications. Nous avons chacun identifié quelques sources correctes. D’autres étaient des hallucinations, mais apparemment réputées et surtout plausibles, avec de vrais co-auteurs précédents, dans des revues au son similaire. Cette inventivité est un gros problème si une liste des publications d’un chercheur fait autorité à un lecteur qui ne prend pas le temps de les vérifier.
Des connaissances datées. ChatGPT ne sait pas ce qui s’est passé dans le monde après la fin de sa formation. Une question sur le pourcentage du monde qui a eu le COVID-19 a renvoyé une réponse précédée de « à la date limite de mes connaissances de septembre 2021 ». Compte tenu de la rapidité avec laquelle les connaissances progressent dans certains domaines, cette limitation pourrait signifier que les lecteurs obtiennent des informations obsolètes erronées. Si vous recherchez des recherches récentes sur un problème de santé personnel, par exemple, méfiez-vous.
Avancement rapide et manque de transparence. Les systèmes d’IA continuent de devenir plus puissants et d’apprendre plus rapidement, et ils peuvent apprendre davantage de désinformation scientifique en cours de route. Google a récemment annoncé 25 nouvelles utilisations intégrées de l’IA dans ses services. À ce stade, des garde-fous insuffisants sont en place pour garantir que l’IA générative deviendra un fournisseur plus précis d’informations scientifiques au fil du temps.
Que pouvez-vous faire?
Si vous utilisez ChatGPT ou d’autres plates-formes d’IA, sachez qu’elles peuvent ne pas être tout à fait exactes. Il incombe à l’utilisateur de discerner l’exactitude.
Augmentez votre vigilance. Des applications de vérification des faits par l’IA pourraient bientôt être disponibles, mais pour l’instant, les utilisateurs doivent servir de vérificateurs des faits. Il y a des étapes que nous recommandons. La première est : Soyez vigilant. Les gens partagent souvent par réflexe des informations trouvées lors de recherches sur les réseaux sociaux avec peu ou pas de vérification. Sachez quand devenir plus délibérément réfléchi et quand il vaut la peine d’identifier et d’évaluer les sources d’information. Si vous essayez de décider comment gérer une maladie grave ou de comprendre les meilleures étapes pour lutter contre le changement climatique, prenez le temps de vérifier les sources.
Améliorez votre vérification des faits. Une deuxième étape est la lecture latérale, un processus utilisé par les vérificateurs de faits professionnels. Ouvrez une nouvelle fenêtre et recherchez des informations sur les sources, le cas échéant. La source est-elle crédible ? L’auteur a-t-il une expertise pertinente? Et quel est le consensus des experts ? Si aucune source n’est fournie ou si vous ne savez pas si elles sont valides, utilisez un moteur de recherche traditionnel pour trouver et évaluer des experts sur le sujet.
Évaluer les preuves. Ensuite, examinez les preuves et leur lien avec la réclamation. Existe-t-il des preuves que les aliments génétiquement modifiés sont sûrs ? Y a-t-il des preuves qu’ils ne le sont pas? Quel est le consensus scientifique ? L’évaluation des réclamations nécessitera des efforts au-delà d’une requête rapide à ChatGPT.
Si vous commencez par l’IA, ne vous arrêtez pas là. Faites preuve de prudence en l’utilisant comme seule autorité sur toute question scientifique. Vous pourriez voir ce que ChatGPT a à dire sur les organismes génétiquement modifiés ou la sécurité des vaccins, mais aussi effectuer une recherche plus diligente à l’aide des moteurs de recherche traditionnels avant de tirer des conclusions.
Évaluer la plausibilité. Jugez si l’allégation est plausible. Est-il probable que ce soit vrai? Si AI fait une déclaration invraisemblable (et inexacte) comme « 1 million de décès ont été causés par des vaccins, pas par COVID-19 », demandez-vous si cela a même du sens. Portez un jugement provisoire, puis soyez ouvert à la révision de votre pensée une fois que vous aurez vérifié les preuves.
Promouvoir la littératie numérique en vous-même et chez les autres. Tout le monde doit améliorer son jeu. Améliorez votre propre littératie numérique et, si vous êtes un parent, un enseignant, un mentor ou un leader communautaire, faites la promotion de la littératie numérique chez les autres. L’American Psychological Association fournit des conseils sur la vérification des informations en ligne et recommande aux adolescents d’être formés aux compétences en matière de médias sociaux afin de minimiser les risques pour la santé et le bien-être. Le News Literacy Project fournit des outils utiles pour améliorer et soutenir la littératie numérique.
Armez-vous des compétences dont vous avez besoin pour naviguer dans le nouveau paysage de l’information sur l’IA. Même si vous n’utilisez pas l’IA générative, il est probable que vous ayez déjà lu des articles créés par elle ou développés à partir d’elle. Cela peut prendre du temps et des efforts pour trouver et évaluer des informations fiables sur la science en ligne, mais cela en vaut la peine.