La désinformation générée par l'IA peut créer de la confusion et entraver les réponses en cas d'urgence
Dans l'une des premières communications du genre, le British Columbia Wildfire Service a émis un avertissement aux résidents concernant les fausses images virales et générées par AI-incendies circulant en ligne. À en juger par des commentaires faits par les téléspectateurs sur les réseaux sociaux, certaines personnes ne se sont pas rendu compte que les images n'étaient pas authentiques.
À mesure que les outils plus avancés de l'IA générative (Genai) deviennent librement accessibles, ces incidents augmenteront. En cas d'urgence, lorsque les gens sont stressés et ont besoin d'informations fiables, une telle désinformation numérique peut causer des dommages importants en répartissant la confusion et la panique.
Cette vulnérabilité à la désinformation découle de la dépendance des gens aux raccourcis mentaux pendant les périodes stressantes; Cela facilite la propagation et l'acceptation de la désinformation. Le contenu émotionnellement chargé et sensationnel capture souvent plus d'attention et est plus fréquemment partagé sur les réseaux sociaux.
Sur la base de nos recherches et de notre expérience sur les interventions d'urgence et notre gestion, la désinformation générée par l'IA pendant les urgences peut entraîner des dommages réels en perturbant les efforts de réponse en cas de catastrophe.
Désinformation circulante
Les motivations des gens pour créer, partager et accepter la désinformation pendant les urgences sont complexes et diverses. Certaines personnes peuvent générer et répartir la désinformation pour un certain nombre de raisons. La théorie de l'autodétermination classe les motivations comme intrinsèques – liées à l'intérêt ou au plaisir inhérent de créer et de partager – et extrinsèque, qui impliquent des résultats tels que le gain financier ou la publicité.
La création de désinformation peut être motivée par plusieurs facteurs. Il s'agit notamment du gain politique, commercial ou personnel, du prestige, de la croyance, du plaisir et du désir de nuire et de semer la discorde.
Les gens peuvent répandre la désinformation parce qu'ils le perçoivent comme important, ils ont réduit la capacité de prise de décision, ils se méfient d'autres sources d'informations, ou parce qu'ils veulent aider, s'intégrer, entreprendre d'autres ou s'auto-promouvoir.
D'un autre côté, l'acceptation de la désinformation peut être influencée par une capacité réduite à analyser les informations, les affiliations politiques, les croyances fixes et le fondamentalisme religieux.
Les dommages à la désinformation
Les dommages causés par la désinformation et la désinformation peuvent avoir des niveaux de gravité différents et peuvent être classés en dommages directs, indirects, à court terme et à long terme.
Ceux-ci peuvent prendre de nombreuses formes, notamment menaçant la vie des gens, les revenus, le sentiment de sécurité et les réseaux de sécurité.
En cas d'urgence, il est essentiel d'avoir accès à des informations dignes de confiance sur les dangers et les menaces. La désinformation, combinée à une mauvaise collecte, un traitement et une compréhension des informations urgentes, peut entraîner des pertes plus directes et des dommages matériels. La désinformation affecte de manière disproportionnée les populations vulnérables.
Lorsque les individus reçoivent des informations sur les risques et les menaces, ils les vérifient généralement par le biais de réseaux verticaux (gouvernement, gestion des urgences et médias réputés) et horizontaux (amis, membres de la famille et voisins). Plus les informations sont complexes, plus le processus de confirmation et de validation est difficile et long.
Et à mesure que le Genai s'améliore, la distinction entre les informations réelles et générées par l'AI deviendra plus difficile et consomment des ressources.
Désinformation démystifiée
La désinformation peut interrompre les communications d'urgence. En cas d'urgence, une communication claire joue un rôle majeur dans la sécurité publique et la sécurité. Dans ces situations, la façon dont les gens traitent les informations dépend de la quantité d'informations dont ils disposent, de leurs connaissances existantes, des réponses émotionnelles aux risques et de leur capacité à recueillir des informations.
La désinformation intensifie le besoin de divers canaux de communication, de sources crédibles et de messagerie claire.
Les sources officielles sont essentielles à la vérification, mais le volume croissant d'informations rend la vérification de la précision de plus en plus difficile. Pendant la pandémie Covid-19, par exemple, les agences de santé publique ont signalé une désinformation et une désinformation en tant que préoccupations majeures.
La désinformation numérique diffusée pendant les catastrophes peut entraîner que les ressources sont mal allouées, contradictoires et actions du public contradictoires et retardés de réponses d'urgence. La désinformation peut également conduire à des évacuations inutiles ou retardées.
Dans de tels cas, les équipes de gestion des catastrophes doivent faire face non seulement à la crise, mais aussi aux défis secondaires créés par la désinformation.
Contrecarrer la désinformation
La recherche révèle des lacunes considérables dans les compétences et les stratégies que les agences de gestion des urgences utilisent pour contrer la désinformation. Ces agences devraient se concentrer sur la détection, la vérification et l'atténuation de la création, du partage et de l'acceptation de la désinformation.
Ce problème complexe exige des efforts coordonnés à travers la politique, la technologie et l'engagement public:
- Il est essentiel de favoriser une culture de conscience critique: éduquer le public, en particulier les générations plus jeunes, sur les dangers de la désinformation et du contenu généré par l'IA-AI est essentiel. Les campagnes d'alphabétisation des médias, les programmes scolaires et les ateliers communautaires peuvent doter les gens des compétences nécessaires pour remettre en question les sources, vérifier les informations et reconnaître la manipulation.
- Des politiques claires pour le contenu généré par l'IA dans les actualités: établir et appliquer des politiques sur la façon dont les agences de presse utilisent des images générées par l'IA pendant les urgences peuvent empêcher la désinformation visuelle d'éroder la confiance du public. Cela pourrait inclure des clauses de non-responsabilité obligatoires, une surveillance éditoriale et un suivi transparente de la provenance.
- Renforcement des plateformes pour la vérification des faits et l'analyse des métadonnées: Pendant les urgences, les plateformes sociales et les médias devraient nécessiter une vérification rapide des faits à grande échelle. Le fait de nécessiter des plates-formes pour signaler, un rang en bas ou supprimer un contenu manifestement faux peut limiter la propagation virale de désinformation. Des stratégies d'intervention doivent être développées pour pousser les gens au sujet des informations sceptiques qu'ils rencontrent sur les réseaux sociaux.
- Conséquences juridiques claires: Au Canada, l'article 181 du Code pénal fait déjà la création intentionnelle et la diffusion de fausses informations une infraction pénale. La publicité et l'application de ces dispositions peuvent être dissuasites, en particulier pour les campagnes de désinformation délibérées en cas d'urgence.
De plus, l'identification, la lutte contre la contre-information devraient être incorporées dans la gestion des urgences et l'éducation publique.
L'IA transforme rapidement la façon dont les informations sont créées et partagées pendant les crises. En cas d'urgence, cela peut amplifier la peur, les ressources erronées et éroder la confiance au moment même la clarté est la plus nécessaire. La construction de garanties par l'éducation, la politique, la vérification des faits et la responsabilité est essentielle pour garantir que l'IA devient un outil de résilience plutôt qu'un moteur du chaos.
