Un nouveau modèle d'IA détecte des commentaires en ligne toxiques avec une précision de 87%

Un nouveau modèle d’IA détecte des commentaires en ligne toxiques avec une précision de 87%

Les informaticiens ont développé un puissant modèle d’apprentissage automatique qui peut détecter les commentaires toxiques des médias sociaux avec une précision remarquable, ouvrant la voie à des interactions numériques plus sûres.

Une équipe de chercheurs d’Australie et du Bangladesh a construit un modèle qui est précis à 87% pour classer le texte toxique et non toxique sans s’appuyer sur l’identification manuelle.

Les résultats de la recherche ont été présentés à la Conférence internationale de 2024 sur l’innovation et l’intelligence pour l’informatique, l’informatique et les technologies.

Des chercheurs de l’Université East West au Bangladesh et de l’Université d’Australie du Sud affirment que leur modèle est une amélioration des systèmes de détection automatisés existants, dont beaucoup produisent de faux positifs.

L’auteur principal, l’expert en science des données, Mme Afia Ahsan, a déclaré que l’augmentation massive de la cyberintimidation et des discours de haine ces dernières années entraîne de graves problèmes de santé mentale, de s’automutière et – dans des cas extrêmes – de suicide.

« Malgré les efforts des plateformes de médias sociaux pour limiter le contenu toxique, l’identification manuelle des commentaires nuisibles n’est pas pratique en raison du volume des interactions en ligne, avec 5,56 milliards d’internet dans le monde aujourd’hui », dit-elle.

« La suppression des commentaires toxiques des plates-formes de réseaux en ligne est essentielle pour freiner l’escalade des abus et assurer des interactions respectueuses dans l’espace des médias sociaux. »

Le chercheur de l’UNISA IT et de l’IA, le Dr Abdullahi Chowdhury, a déclaré que l’équipe avait testé trois modèles d’apprentissage automatique sur un ensemble de données d’anglais et de commentaires de Bangla collectés à partir de plateformes de médias sociaux tels que Facebook, YouTube et Instagram.

Leur algorithme optimisé a atteint une précision de 87,6%, surpassant les autres modèles qui ont atteint des taux de précision de 69,9% (Machine de vecteur de support de base) et 83,4% (modèle de descente de gradient stochastique).

« Notre modèle SVM optimisé a été le plus fiable et le plus efficace parmi les trois, ce qui en fait le choix préféré de déploiement dans des scénarios du monde réel où une classification précise des commentaires toxique est critique », a déclaré le Dr Chowdhury.

Les recherches futures se concentreront sur l’amélioration du modèle en intégrant les techniques d’apprentissage en profondeur et en élargissant l’ensemble de données pour inclure plus de langues et de dialectes régionaux. L’équipe explore maintenant des partenariats avec les sociétés de médias sociaux et les plateformes en ligne pour mettre en œuvre cette technologie.