Une approche d'adaptation de domaine non supervisée basée sur un auto-encodeur intégré

Une approche d’adaptation de domaine non supervisée basée sur un auto-encodeur intégré

L’adaptation de domaine non supervisée a suscité beaucoup d’attention et de recherches au cours des dernières décennies. Parmi toutes les méthodes approfondies, l’approche basée sur l’auto-encodeur a atteint de bonnes performances grâce à sa vitesse de convergence rapide et à une exigence sans étiquette. Les méthodes existantes d’auto-encodeurs connectent simplement en série les caractéristiques générées par différents auto-encodeurs, ce qui pose des défis pour l’apprentissage des représentations discriminantes et ne parvient pas à trouver les véritables caractéristiques inter-domaines.

Pour résoudre ces problèmes, une équipe de recherche dirigée par Zhu Yi a publié ses recherches dans Frontières de l’informatique.

L’équipe a proposé une nouvelle méthode d’apprentissage des représentations basée sur un auto-encodeur intégré pour une adaptation de domaine non supervisée. Un auto-encodeur clairsemé est introduit pour combiner les fonctionnalités inter-domaines et internes afin de minimiser les écarts dans différents domaines et d’améliorer les performances de l’adaptation de domaine non supervisée. Des expériences approfondies sur trois ensembles de données de référence valident clairement l’efficacité de la méthode proposée par rapport à plusieurs méthodes de référence de pointe.

Dans la recherche, les chercheurs proposent d’obtenir les caractéristiques inter-domaines et internes avec deux auto-encodeurs différents. Les représentations de niveau supérieur et plus abstraites sont extraites pour capturer différentes caractéristiques des données d’entrée originales dans les domaines source et cible. Une couche de blanchiment est introduite pour les fonctionnalités traitées dans l’apprentissage de représentation inter-domaines. Ensuite, un auto-encodeur clairsemé est introduit pour combiner les fonctionnalités inter-domaines et internes afin de minimiser les écarts dans différents domaines et d’améliorer les performances de l’adaptation de domaine non supervisée.

Tout d’abord, l’AutoEncoder marginalisé avec écart moyen maximum (mAEMMD) est introduit pour mapper les données d’entrée d’origine dans l’espace de fonctionnalités latentes afin de générer simultanément les représentations inter-domaines entre les domaines source et cible.

Deuxièmement, l’autoencodeur convolutif (CAE) est utilisé pour obtenir des représentations de domaine interne et conserver l’emplacement relatif des entités, ce qui réserve les informations spatiales des données d’entrée dans les domaines source et cible.

Troisièmement, une fois que les caractéristiques de niveau supérieur ont été obtenues par ces deux auto-encodeurs différents, un auto-encodeur clairsemé est appliqué pour la combinaison de ces représentations inter-domaines et internes, sur lequel les nouvelles représentations de caractéristiques sont utilisées pour minimiser les écarts dans différents domaines.

Les travaux futurs devraient se concentrer sur l’apprentissage des représentations de données graphiques, dans lesquelles les relations sont représentées avec une matrice adjacente, et sur l’exploration de relations de données graphiques hétérogènes basées sur des réseaux d’auto-encodeurs basés sur des opérations convolutives.

Fourni par Frontiers Journals