Les États-Unis feront part de leurs inquiétudes lors des premières négociations sur l’IA en Chine

Une nouvelle technique surmonte un problème de corrélations parasites dans l’IA

Les modèles d’IA s’appuient souvent sur des «corrélations parasites», prenant des décisions basées sur des informations sans importance et potentiellement trompeuses. Les chercheurs ont maintenant découvert que ces corrélations parasites apprises peuvent être attribuées à un très petit sous-ensemble des données de formation et ont démontré une technique qui surmonte le problème. Le travail a été publié sur le arxiv serveur de préimprimée.

« Cette technique est nouvelle en ce qu’elle peut être utilisée même lorsque vous n’avez aucune idée des corrélations parasites sur lesquelles l’IA s’appuie », explique Jung-Eun Kim, auteur correspondant d’un article sur l’œuvre et professeur adjoint d’informatique à la North Carolina State University.

« Si vous avez déjà une bonne idée des caractéristiques parasites, notre technique est un moyen efficace et efficace de résoudre le problème. Cependant, même si vous avez simplement des problèmes de performances, mais ne comprenez pas pourquoi, vous pouvez toujours utiliser notre technique pour déterminer si une corrélation parasites existe et résoudre ce problème. »

Les corrélations parasites sont généralement causées par des biais de simplicité pendant l’entraînement de l’IA. Les praticiens utilisent des ensembles de données pour former des modèles d’IA pour effectuer des tâches spécifiques. Par exemple, un modèle d’IA pourrait être formé pour identifier les photographies de chiens. L’ensemble de données de formation comprendrait des photos de chiens où l’IA est informée qu’un chien est sur la photo.

Pendant le processus de formation, l’IA commencera à identifier des caractéristiques spécifiques qu’il peut utiliser pour identifier les chiens. Cependant, si de nombreux chiens sur les photos portent des colliers, et parce que les colliers sont généralement des caractéristiques moins complexes d’un chien que des oreilles ou de la fourrure, l’IA peut utiliser les colliers comme un moyen simple d’identifier les chiens. C’est ainsi que le biais de simplicité peut provoquer des corrélations parasites.

« Et si l’IA utilise les colliers comme le facteur qu’il utilise pour identifier les chiens, l’IA peut identifier les chats portant des colliers comme des chiens », explique Kim.

Les techniques conventionnelles pour résoudre les problèmes causées par des corrélations parasites reposent sur les praticiens en mesure d’identifier les caractéristiques parasites qui causent le problème. Ils peuvent ensuite résoudre ce problème en modifiant les ensembles de données utilisés pour former le modèle d’IA. Par exemple, les praticiens pourraient augmenter le poids donné aux photos de l’ensemble de données qui incluent des chiens qui ne portent pas de colliers.

Cependant, dans leurs nouveaux travaux, les chercheurs démontrent qu’il n’est pas toujours possible d’identifier les caractéristiques fallacieuses qui causent des problèmes – créant des techniques conventionnelles pour traiter les corrélations parasites inefficaces.

L’article, «Couping Fally Corrélations avec l’élagage des données», sera présenté à la Conférence internationale sur les représentations de l’apprentissage (ICLR), qui se tiendra à Singapour du 24 au 28 avril. Le premier auteur du journal est Varun Mulchandani, un doctorat. Étudiant à NC State.

« Notre objectif avec ce travail était de développer une technique qui nous permet de rompre les corrélations parasites même lorsque nous ne savons rien de ces caractéristiques parasites », explique Kim.

La nouvelle technique repose sur la suppression d’une petite partie des données utilisées pour former le modèle d’IA.

« Il peut y avoir une variation significative des échantillons de données inclus dans les ensembles de données de formation », explique Kim. « Certains échantillons peuvent être très simples, tandis que d’autres peuvent être très complexes. Et nous pouvons mesurer à quel point chaque échantillon est« difficile »sur la façon dont le modèle s’est comporté pendant la formation.

« Notre hypothèse était que les échantillons les plus difficiles de l’ensemble de données peuvent être bruyants et ambigus, et sont les plus susceptibles de forcer un réseau à s’appuyer sur des informations non pertinentes qui nuisent aux performances d’un modèle », explique Kim.

« En éliminant un petit ruban des données d’entraînement difficile à comprendre, vous éliminez également les échantillons de données difficiles qui contiennent des caractéristiques parasites. Cette élimination surmonte le problème de corrélations parasites, sans provoquer d’effets indésirables significatifs. »

Les chercheurs ont démontré que la nouvelle technique obtient des résultats de pointe – améliorant les performances même par rapport aux travaux précédents sur les modèles où les caractéristiques parasites étaient identifiables.