S'engager avec eux signifie être en alerte maximale

S’engager avec eux signifie être en alerte maximale

Il s’agit d’une fausse image générée par l’IA. Crédit : Daniel Kempe via Twitter/Midjourney

Les outils d’intelligence artificielle peuvent nous aider à créer du contenu, à découvrir le monde et (peut-être) à éliminer les tâches les plus banales de la vie, mais ils ne sont pas parfaits. Il a été démontré qu’ils hallucinent les informations, utilisent le travail d’autres personnes sans leur consentement et intègrent les conventions sociales, y compris les excuses, pour gagner la confiance des utilisateurs.

Par exemple, certains chatbots IA, tels que « compagnon » bots, sont souvent développés avec l’intention d’avoir réponses empathiques. Cela les rend particulièrement crédibles. Malgré notre admiration et notre émerveillement, nous devons être des consommateurs critiques de ces outils, sinon nous risquons d’être induits en erreur.

Sam Altman, le PDG d’OpenAI (la société qui nous a donné le chatbot ChatGPT), a dit qu’il est « craignent que ces modèles puissent être utilisés pour la désinformation à grande échelle. » En tant que personne qui étudie comment les humains utilisent la technologie pour accéder à l’information, moi aussi.

Les outils d'IA génèrent une désinformation convaincante.  S'engager avec eux signifie être en alerte maximale

Un certain nombre de fausses images de l’arrestation de l’ancien président américain Donald Trump ont pris d’assaut Internet. Crédit : Elliot Higgins/Midjourney

La désinformation va se développer avec l’IA de poche

Apprentissage automatique outils utiliser des algorithmes pour accomplir certaines tâches. Ils « apprendre » à mesure qu’ils accèdent à davantage de données et affinent leurs réponses en conséquence. Par exemple, Netflix utilise l’IA pour suivre les émissions que vous aimez et en suggérer d’autres pour une visualisation future. Plus vous regardez d’émissions de cuisine, plus Netflix recommande d’émissions de cuisine.

Alors que beaucoup d’entre nous explorent et s’amusent avec de nouveaux outils d’IA, les experts souligner ces outils ne sont aussi bons que leurs données sous-jacentes, que nous savons imparfaites, biaisées et parfois même conçues pour tromper. Là où les fautes d’orthographe nous alertaient autrefois sur les escroqueries par e-mail ou les images générées par l’IA signalées par des doigts supplémentaires, les améliorations du système rendent plus difficile la distinction entre les faits et la fiction.

Ces préoccupations sont exacerbées par l’intégration croissante de l’IA dans les applications de productivité. Microsoft, Google et Adobe ont annoncé que des outils d’intelligence artificielle seront introduits dans un certain nombre de leurs services, notamment Google Docs, Gmail, Word, PowerPoint, Excel, Photoshop et Illustrator.

La création de fausses photos et de vidéos deep fake ne nécessite plus de compétences et d’équipements spécialisés.

Tests en cours

J’ai mené une expérience avec le générateur d’images Dall-E 2 pour tester s’il pouvait produire une image réaliste d’un chat qui ressemblait au mien. J’ai commencé avec une invite pour « un chat blanc moelleux avec une queue poofy et des yeux orange allongé sur un canapé gris. »

Le résultat n’était pas tout à fait correct. La fourrure était emmêlée, le nez n’était pas complètement formé et les yeux étaient troubles et de travers. Cela m’a rappelé les animaux de compagnie qui sont retournés à leurs propriétaires dans Pet Sematary de Stephen King. Pourtant, les défauts de conception m’ont permis de voir plus facilement l’image pour ce qu’elle était : une sortie générée par le système.

Les outils d'IA génèrent une désinformation convaincante.  S'engager avec eux signifie être en alerte maximale
Image générée par Dall-E 2 à l’aide de l’invite : « un chat blanc moelleux avec une queue poofy et des yeux orange allongé sur un canapé gris. » Crédit : Dall-E 2

J’ai alors demandé le même chat « dormir sur le dos sur un plancher de bois franc. » La nouvelle image avait peu de marqueurs visibles distinguant le chat généré du mien. Presque n’importe qui pourrait être induit en erreur par une telle image.

Les outils d'IA génèrent une désinformation convaincante.  S'engager avec eux signifie être en alerte maximale

Image générée par Dall-E 2 à l’aide de l’invite : « un chat blanc pelucheux avec une queue poofy dormant sur le dos sur un plancher de bois franc ». Crédit : Dall-E 2

J’ai ensuite utilisé ChatGPT pour tourner l’objectif sur moi-même, en demandant : « Pourquoi Lisa Given est-elle la plus connue ? » Cela a bien commencé, mais a ensuite énuméré un certain nombre de publications qui ne sont pas les miennes. Ma confiance s’est arrêtée là.

Les outils d'IA génèrent une désinformation convaincante.  S'engager avec eux signifie être en alerte maximale

Le chatbot a commencé à halluciner, m’attribuant les travaux des autres. Le livre The Digital Academic : regards critiques sur les technologies numériques dans l’enseignement supérieur existe, mais je ne l’ai pas écrit. je n’ai pas écrit non plus Narration numérique dans la santé et la politique sociale. Je ne suis pas non plus l’éditeur de Revue trimestrielle des humanités numériques.

Lorsque j’ai défié ChatGPT, sa réponse était profondément désolée, mais a produit plus d’erreurs. Je n’ai écrit aucun des livres énumérés ci-dessous, ni édité les revues. Pendant que j’écrivais un chapitre de Information et émotion, je n’ai pas co-édité le livre et Paul Dourish non plus. Mon livre le plus populaire, À la recherche d’informationsa été complètement omis.

Les outils d'IA génèrent une désinformation convaincante.  S'engager avec eux signifie être en alerte maximale

La vérification des faits est notre principale défense

Comme mes co-auteurs et moi l’expliquons dans la dernière édition de À la recherche d’informations, le partage de fausses informations a une longue histoire. Les outils d’IA représentent le dernier chapitre de la propagation de la désinformation (inexactitudes involontaires) et de la désinformation (matériel destiné à tromper). Ils permettent que cela se produise plus rapidement, à plus grande échelle et avec la technologie disponible entre les mains d’un plus grand nombre de personnes.

La semaine dernière, les médias ont fait état d’une situation préoccupante faille de sécurité dans la fonction Voiceprint utilisée par Centrelink et l’Australian Tax Office. Ce système, qui permet aux gens d’utiliser leur voix pour accéder à des informations de compte sensibles, peut être trompé par des voix générées par l’IA. Les escrocs ont également utilisé de fausses voix cibler des personnes sur WhatsApp en se faisant passer pour leurs proches.

Les outils d’IA avancés permettent de démocratiser l’accès et la création de connaissances, mais ils ont un prix. Nous ne pouvons pas toujours consulter des experts, nous devons donc porter nous-mêmes des jugements éclairés. C’est là que la pensée critique et les compétences de vérification sont essentielles.

Ces conseils peuvent vous aider à naviguer dans un paysage d’informations riche en IA.

1. Posez des questions et vérifiez auprès de sources indépendantes

Lorsque vous utilisez un générateur de texte AI, vérifiez toujours le matériel source mentionné dans la sortie. Si les sources existent, demandez-vous si elles sont présentées de manière juste et précise, et si des détails importants n’ont pas été omis.

2. Soyez sceptique quant au contenu que vous rencontrez

Si vous rencontrez une image que vous soupçonnez d’être générée par l’IA, demandez-vous si elle semble aussi « parfait » être réel. Ou peut-être qu’un détail particulier ne correspond pas au reste de l’image (c’est souvent un cadeau). Analysez les textures, les détails, les couleurs, les ombres et, surtout, le contexte. L’exécution d’une recherche d’image inversée peut également être utile pour vérifier les sources.

S’il s’agit d’un texte écrit dont vous n’êtes pas sûr, vérifiez les erreurs factuelles et demandez-vous si le style d’écriture et le contenu correspondent à ce que vous attendez de la source revendiquée.

3. Discutez ouvertement de l’IA dans vos cercles

Un moyen simple d’empêcher le partage (ou la création par inadvertance) d’informations erronées basées sur l’IA consiste à vous assurer que vous et votre entourage utilisez ces outils de manière responsable. Si vous ou une organisation avec laquelle vous travaillez envisagez d’adopter des outils d’IA, élaborez un plan sur la manière dont les inexactitudes potentielles seront gérées et sur la manière dont vous serez transparent sur l’utilisation des outils dans les documents que vous produisez.

Fourni par La Conversation