IA d'apprentissage fédéré développée pour les hôpitaux et les banques sans partage d'informations personnelles
L'apprentissage fédéré a été conçu pour résoudre le problème de la difficulté de regrouper les données personnelles, telles que les dossiers médicaux des patients ou les données financières, en un seul endroit. Cependant, au cours du processus au cours duquel chaque institution optimise l'IA formée en collaboration pour l'adapter à son propre environnement, une limitation est apparue : l'IA est devenue trop adaptée aux données spécifiques de l'institution, la rendant vulnérable aux nouvelles données.
Une équipe de recherche a présenté une solution à ce problème et a confirmé ses performances stables non seulement dans des domaines critiques en matière de sécurité comme les hôpitaux et les banques, mais également dans des environnements en évolution rapide tels que les médias sociaux et les achats en ligne.
L'équipe de recherche dirigée par le professeur Chanyoung Park du Département d'ingénierie industrielle et des systèmes a développé une nouvelle méthode d'apprentissage qui résout fondamentalement le problème chronique de dégradation des performances de l'apprentissage fédéré, améliorant considérablement les performances de généralisation des modèles d'IA. L'ouvrage est publié sur le arXiv serveur de préimpression.

L'apprentissage fédéré est une méthode qui permet à plusieurs institutions de former conjointement une IA sans échanger directement de données. Cependant, un problème survient lorsque chaque institution ajuste le modèle d’IA commun qui en résulte à son contexte local. En effet, les vastes connaissances acquises précédemment sont diluées, ce qui conduit à un problème local de surapprentissage dans lequel l’IA s’adapte de manière excessive uniquement aux caractéristiques des données d’une institution spécifique.
Par exemple, si plusieurs banques construisent conjointement une « IA collaborative d'examen des prêts » et qu'une banque spécifique effectue des réglages précis en se concentrant sur les données des entreprises clientes, l'IA de cette banque devient puissante dans les examens d'entreprise mais souffre d'un surajustement local, conduisant à une dégradation des performances dans l'examen des clients individuels ou des startups.
L'équipe du professeur Park a introduit la méthode des données synthétiques pour résoudre ce problème. Ils ont extrait uniquement les caractéristiques principales et représentatives des données de chaque institution pour générer des données virtuelles ne contenant pas d'informations personnelles et les ont appliquées lors du processus de réglage fin. Ainsi, l’IA de chaque établissement peut renforcer son expertise en fonction de ses propres données sans partager d’informations personnelles, tout en conservant la perspective large (performance de généralisation) acquise grâce à l’apprentissage collaboratif.

Les résultats de la recherche ont montré que cette méthode est particulièrement efficace dans les domaines où la sécurité des données est cruciale, comme les soins de santé et la finance, et ont également démontré des performances stables dans des environnements où de nouveaux utilisateurs et produits sont continuellement ajoutés, comme les médias sociaux et le commerce électronique. Cela a prouvé que l’IA pouvait maintenir des performances stables sans confusion, même si une nouvelle institution rejoint la collaboration ou si les caractéristiques des données changent rapidement.
Le professeur Chanyoung Park du Département d'ingénierie industrielle et des systèmes a déclaré : « Cette recherche ouvre une nouvelle voie pour garantir simultanément l'expertise et la polyvalence de l'IA de chaque institution tout en protégeant la confidentialité des données. Elle sera d'une grande aide dans les domaines où la collaboration sur les données est essentielle mais la sécurité est importante, comme l'IA médicale et l'IA de détection de fraude financière.
