Le modèle d’IA léger facilite la génération d’images de haute qualité sans transmission directe de données sensibles
Un nouveau modèle d’intelligence artificielle (IA) ultra-légers a été développé qui aide à générer des images de haute qualité sans envoyer directement de données sensibles aux serveurs. Ce progrès technologique ouvre la voie à l’utilisation sûre de l’IA générative à haute performance dans des environnements où la confidentialité est primordiale, comme dans l’analyse des analyses IRM et CT des patients.
Une équipe de recherche dirigée par le professeur Jaejun Yoo de la Graduate School of Artificiel Intelligence de Unist a annoncé le développement de Prism (le masquage stochastique amélioré), un modèle d’IA d’apprentissage fédéré. Les résultats sont publiés sur le arxiv serveur de préimprimée.
Federated Learning (FL) est une technique qui permet la création d’une IA globale en compilant les résultats de l’IA locale de chaque appareil après avoir effectué l’apprentissage sans avoir besoin de télécharger des informations sensibles directement sur le serveur.
PRISM sert de modèle d’IA qui agit comme un médiateur reliant l’IA local à l’IA global pendant le processus d’apprentissage fédéré. Ce modèle réduit les coûts de communication en moyenne de 38% par rapport aux modèles existants, et sa taille est réduite à un niveau 1 bits, ce qui lui permet de fonctionner efficacement sur les processeurs et la mémoire de petits appareils tels que les smartphones et les tablettes.
De plus, PRISM évalue avec précision les informations de l’IA locales à faire confiance et à intégrer, même dans des situations où il existe une variabilité significative des données et des performances dans différentes IA locales, ce qui entraîne des résultats générés de haute qualité.
Par exemple, lors de la transformation d’un selfie en une image de style Ghibli-Studio, les méthodes précédentes ont nécessité le téléchargement de la photo sur un serveur, ce qui soulève des préoccupations concernant les violations potentielles de confidentialité. Avec Prism, tout le traitement se produit sur le smartphone, sauvegarde la confidentialité personnelle et permettant des résultats rapides. Cependant, il est important de noter que le développement du modèle d’IA local capable de générer des images sur le smartphone est une exigence distincte.
Les résultats expérimentaux sur les ensembles de données couramment utilisés pour valider les performances de l’IA, notamment MNIST, FMNIST, CELEBA et CIFAR10, ont démontré que le prisme réduisait non seulement le volume de communication mais a également produit une génération d’images de meilleure qualité par rapport aux méthodes traditionnelles. Notamment, des expériences supplémentaires utilisant l’ensemble de données MNIST ont confirmé la compatibilité avec des modèles de diffusion principalement utilisés pour générer des images de style Ghibli-de type studio.
L’équipe de recherche a renforcé l’efficacité de la communication en utilisant une méthode de masque binaire stochastique qui ne partage sélectivement uniquement les informations critiques au lieu d’un vaste partage de paramètres. En outre, l’utilisation de l’écart moyen maximal (MMD) pour une évaluation précise de la qualité générative et des stratégies d’agrégation dynamique (MADA) de la qualité générative (MADA) qui regroupent les contributions de chaque IA locale ont aidé différemment à atténuer les écarts de données et l’instabilité de la formation.
Le professeur Yoo a déclaré: « Notre approche peut être appliquée non seulement à la génération d’images, mais aussi à la génération de texte, à la simulation de données et à la documentation automatisée, ce qui en fait une solution efficace et sûre dans les domaines traitant d’informations sensibles, telles que les soins de santé et la finance. »
Cette recherche a été menée en collaboration avec le professeur Dong-Jun Han de l’Université de Yonsei, avec le chercheur UniT Kyeongkook SEO participant en tant que premier auteur.
Les résultats de la recherche seront présentés à la treizième Conférence internationale sur les représentations de l’apprentissage (ICLR 2025) qui se sont tenues du 24 au 28 avril à Singapour.