Transformer l’avenir des médias grâce à l’intelligence artificielle
Avec la capacité d’analyser de grands ensembles de données pour identifier des modèles et prédire les résultats, le tout d’un simple clic, l’intelligence artificielle (IA) révolutionne notre façon de vivre et de travailler. Qu’il s’agisse de recommandations personnalisées ou d’automatisation de tâches fastidieuses, l’IA peut nous aider à prendre de meilleures décisions, à travailler plus intelligemment et à réduire le risque d’erreurs.
Les chatbots alimentés par l’IA, tels que ChatGPT, ont transformé le paysage médiatique. Ils peuvent désormais avoir des conversations de type humain, générer du contenu et analyser les émotions à partir de textes – des capacités autrefois considérées comme exclusivement humaines.
Compte tenu du grand nombre de publications et d’informations sur les réseaux sociaux sur Internet, la capacité de l’IA à décoder les émotions des mots pourrait changer la donne pour des applications telles que l’analyse des sentiments dans la surveillance des médias et le blocage des contenus malveillants.
Décoder les émotions
Cependant, l’IA n’est toujours pas aussi efficace que les humains pour reconnaître les émotions contenues dans un texte. Comprendre les tons émotionnels des mots écrits implique de comprendre le monde et les normes sociales que les humains apprennent par l’expérience, ce que l’IA ne peut pas faire.
Une plateforme d’IA, SenticNet, a été conçue pour relever les défis auxquels l’IA est confrontée lorsqu’elle cherche à donner un sens aux langages humains. Développé par le professeur Erik Cambria de l’École d’informatique et d’ingénierie (SCSE) de NTU, SenticNet intègre les modes d’apprentissage humain aux approches d’apprentissage traditionnelles que les machines utilisent pour améliorer la capacité de l’algorithme à analyser les émotions.
SenticNet suit un processus logique pour déduire les sentiments exprimés dans une phrase en catégorisant la signification des mots dans un cadre ressemblant à un raisonnement de bon sens. Contrairement aux modèles conventionnels d’analyse des sentiments, qui sont souvent des « boîtes noires » qui ne fournissent aucun aperçu de leur processus de raisonnement interne, les processus par lesquels SenticNet obtient ses résultats sont transparents, et les résultats sont reproductibles et fiables.
« Les systèmes d’IA deviennent de moins en moins transparents et nous espérons que SenticNet sera capable d’extraire les sentiments d’un texte de manière explicable sans compromettre les performances », a déclaré le professeur Cambria.
Les chercheurs ont démontré que combiner le raisonnement de bon sens avec des approches d’apprentissage automatique améliore les performances. Lors des tests, SenticNet a surpassé les autres modèles d’apprentissage automatique.

La dernière version de SenticNet a été signalée dans le Actes de la 13e Conférence sur les ressources linguistiques et l’évaluation en 2022.
Le professeur Cambria travaille également à améliorer la capacité de SenticNet à coder et décoder la signification des concepts abstraits, un défi majeur pour les systèmes d’IA car ils ne possèdent pas les riches expériences sensorielles que les humains ont du monde réel.
Recherche de vidéos
Avec des images et du son en mouvement, les vidéos constituent un moyen attrayant de transmettre des messages et d’enseigner des concepts. Pour permettre aux utilisateurs de mieux interagir avec le contenu vidéo à des fins éducatives et de divertissement, une méthode développée par le professeur associé Sun Aixin du SCSE rend le contenu vidéo consultable en faisant correspondre des mots-clés avec des images à l’écran.
Les techniques conventionnelles de vision par ordinateur peuvent le faire, mais ne sont pas aussi efficaces lors de la recherche d’images dans de longues vidéos.
Assoc Prof Sun et ses collègues ont développé un algorithme qui traite une vidéo comme un passage de texte afin que les gens puissent rechercher des moments spécifiques dans le clip. Grâce à cette méthode, une longue vidéo peut ainsi être divisée en plusieurs clips plus courts pour la recherche.
« Cette stratégie simple et efficace permet de rechercher efficacement des images dans de longues vidéos, résolvant ainsi le problème de dégradation des performances couramment rencontré par les techniques conventionnelles de vision par ordinateur lors de la recherche de longues vidéos », a déclaré le professeur associé Sun.
Les résultats ont été publiés dans Transactions IEEE sur l’analyse de modèles et l’intelligence artificielle en 2022.
Les chercheurs travaillent actuellement à améliorer la précision de la recherche de l’algorithme et à explorer son utilisation sur le contenu visuel des vidéos de formation médicale et de surveillance.

Détection des fausses images
Comme toute nouvelle technologie, l’IA est une arme à double tranchant. Malheureusement, de nouvelles menaces, telles que de fausses images conçues pour tromper ou arnaquer le public, sont apparues parallèlement aux progrès des outils d’IA.
Par exemple, les technologies de manipulation faciale peuvent créer des visages photoréalistes qui peuvent être utilisés de manière néfaste pour induire les gens en erreur.
Les travaux menés par le professeur adjoint Liu Ziwei au SCSE ont abouti à un algorithme appelé Seq-DeepFake, qui signale les images falsifiées en reconnaissant les empreintes digitales numériques laissées par la manipulation faciale.
Contrairement aux méthodes conventionnelles de détection de deep fake qui prédisent uniquement si les images sont réelles ou fausses, Seq-DeepFake détecte les traces laissées par la manipulation de manière séquentielle. Les modifications sont détectées en quelques secondes.
L’algorithme peut également récupérer le visage original du visage manipulé en inversant la séquence de manipulation.
« Seq-DeepFake est un outil puissant qui peut potentiellement aider tout le monde, des organisations gouvernementales aux utilisateurs individuels, à vérifier l’authenticité des informations visuelles à l’ère numérique pour lutter contre la désinformation », a déclaré le professeur adjoint Liu.
À l’avenir, le professeur adjoint Liu prévoit d’étendre les capacités de Seq-DeepFake pour détecter d’autres formes de médias falsifiés tels que le texte et les vidéos.
Les résultats ont été publiés sur le Conférence européenne sur la vision par ordinateur en 2022.