ChatGPT peut-il signaler des terroristes potentiels ? Une étude utilise des outils automatisés et l'IA pour dresser le profil des extrémistes violents

ChatGPT peut-il signaler des terroristes potentiels ? Une étude utilise des outils automatisés et l'IA pour dresser le profil des extrémistes violents

Selon une étude, des technologies telles que ChatGPT pourraient jouer un rôle complémentaire et aider à profiler les terroristes et à identifier la probabilité qu'ils se lancent dans des activités extrémistes.

L'étude intitulée « Un cyberterroriste derrière le clavier : une analyse automatisée de texte pour le profilage psycholinguistique et l'évaluation des menaces » a été publiée dans le Journal sur l'agression et les conflits linguistiques.

Des chercheurs de l'Université Charles Darwin (CDU) ont alimenté 20 déclarations publiques faites par des terroristes internationaux après le 11 septembre dans le logiciel Linguistic Inquiry and Word Count (LIWC).

Ils ont ensuite fourni à ChatGPT un échantillon de déclarations de quatre terroristes au sein de cet ensemble de données et ont posé deux questions à la technologie : quels sont les principaux thèmes ou sujets du texte et quels griefs se cachent derrière les messages communiqués ?

ChatGPT a pu identifier les thèmes centraux des textes sélectionnés par quatre terroristes, ce qui a révélé des indices sur les motivations de chaque individu et le but de leurs textes. ChatGPT pourrait raisonnablement bien produire des catégories thématiques et sémantiques.

Les thèmes incluent les représailles et l'autodéfense, le rejet des systèmes démocratiques, l'opposition à la laïcité et aux dirigeants apostats, la lutte et le martyre, la déshumanisation des opposants, la critique de l'immigration de masse, l'opposition au multiculturalisme, etc.

ChatGPT a également identifié des indices sur les motivations de la violence, notamment le désir de représailles et de justice, le sentiment anti-occidental, l'oppression et l'agression de la part des ennemis, les griefs religieux et la peur du remplacement racial et culturel.

Les thèmes ont également été cartographiés sur le Protocole d'évaluation de la radicalisation terroriste-18 (TRAP-18), un outil utilisé par les autorités pour évaluer les individus susceptibles de s'engager dans le terrorisme.

Il a été constaté que les thèmes correspondaient aux indicateurs de comportement menaçant TRAP-18.

L'auteur principal, le Dr Awni Etaywe, expert en linguistique médico-légale axé sur le terrorisme, affirme que l'avantage des grands modèles linguistiques (LLM) comme ChatGPT est qu'ils pourraient être utilisés comme un outil complémentaire ne nécessitant pas de formation spécifique.

« Même si les LLM ne peuvent pas remplacer le jugement humain ou l'analyse minutieuse, ils offrent des indices d'enquête précieux, accélérant les soupçons et améliorant notre compréhension des motivations derrière le discours terroriste », a déclaré le Dr Etaywe.

« Malgré les inquiétudes soulevées par Europol concernant la militarisation potentielle d'outils d'IA tels que ChatGPT, cette étude a démontré que les travaux futurs visant à améliorer les capacités de profilage médico-légal proactif peuvent également appliquer l'apprentissage automatique à la catégorisation des textes cyberterroristes. »

L'article a été co-écrit par le Dr Kate Macfarlane, maître de conférences en relations internationales et en sciences politiques de la CDU, et par le professeur de technologie de l'information de la CDU, Mamoun Alazab.

Le Dr Etaywe a déclaré que des études plus approfondies sont nécessaires pour améliorer l'exactitude et la fiabilité des LLM, y compris les analyses de ChatGPT.

« Nous devons garantir que cela devienne une aide pratique pour identifier les menaces potentielles tout en tenant compte des contextes socioculturels du terrorisme », a déclaré le Dr Etaywe.

« Ces grands modèles linguistiques ont jusqu'à présent une valeur d'enquête mais non de preuve. »