L'IA peut aider à remplacer les informations confidentielles des images par des visuels similaires

L'IA peut aider à remplacer les informations confidentielles des images par des visuels similaires

La confidentialité des images pourrait être protégée grâce à l’utilisation de l’intelligence artificielle générative. Des chercheurs du Japon, de Chine et de Finlande ont créé un système qui remplace les parties d’images susceptibles de menacer la confidentialité par des alternatives visuellement similaires mais générées par l’IA.

Appelé « remplacement de contenu génératif », lors des tests, 60 % des téléspectateurs ne pouvaient pas dire quelles images avaient été modifiées. Les chercheurs souhaitent que ce système fournisse une option de censure d’image plus cohérente visuellement, ce qui contribue à préserver le récit de l’image tout en protégeant la vie privée.

Cette recherche a été présentée lors de la conférence CHI de l'Association for Computing Machinery sur les facteurs humains dans les systèmes informatiques, qui s'est tenue à Honolulu, Hawaï, aux États-Unis, en mai 2024.

Avec seulement quelques invites textuelles, l’IA générative peut offrir une solution rapide à un devoir scolaire délicat, une nouvelle stratégie commerciale ou une source infinie de mèmes. L’avènement de l’IA générative dans la vie quotidienne a été rapide, et l’ampleur potentielle de son rôle et de son influence reste à déterminer. Les craintes quant à son impact sur la sécurité de l'emploi, la sécurité en ligne et l'originalité créative ont conduit à des grèves d'écrivains hollywoodiens, à des procès pour de fausses photos et à des discussions animées sur l'authenticité.

Cependant, une équipe de chercheurs a proposé d’utiliser une fonctionnalité parfois controversée de l’IA générative – sa capacité à manipuler des images – comme moyen de résoudre les problèmes de confidentialité.

« Nous avons constaté que les techniques existantes de protection de la vie privée des images ne sont pas nécessairement capables de cacher des informations tout en préservant l'esthétique de l'image. Les images qui en résultent peuvent parfois paraître peu naturelles ou choquantes. Nous avons considéré cela comme un facteur démotivant pour les personnes qui pourraient autrement envisager d'appliquer la protection de la vie privée », a expliqué Associate. Professeur Koji Yatani de la Graduate School of Engineering de l'Université de Tokyo.

« Nous avons donc décidé d'explorer comment nous pouvons atteindre les deux, c'est-à-dire une protection robuste de la vie privée et une facilité d'utilisation des images, en même temps, en intégrant la dernière technologie d'IA générative. »

  • Cachant à la vue
  • Cachant à la vue

Les chercheurs ont créé un système informatique qu’ils ont nommé remplacement de contenu génératif (GCR). Cet outil identifie ce qui pourrait constituer une menace pour la vie privée et le remplace automatiquement par un substitut réaliste mais créé artificiellement. Par exemple, les informations personnelles figurant sur un talon de billet pourraient être remplacées par des lettres illisibles, ou un bâtiment privé pourrait être échangé contre un faux bâtiment ou d'autres éléments paysagers.

« Il existe un certain nombre de méthodes de protection d'image couramment utilisées, telles que le flou, le remplissage des couleurs ou simplement la suppression de la partie affectée de l'image. Par rapport à celles-ci, nos résultats montrent que le remplacement du contenu génératif peut mieux conserver l'histoire des images originales et mieux. harmonie visuelle », a déclaré Yatani. « Nous avons constaté que les participants ne pouvaient pas détecter le GCR dans 60 % des images. »

Pour l’instant, le système GCR nécessite beaucoup de ressources de calcul, il ne sera donc pas encore disponible sur aucun appareil personnel. Le système testé était entièrement automatique, mais l'équipe a depuis développé une nouvelle interface pour permettre aux utilisateurs de personnaliser les images, donnant ainsi plus de contrôle sur le résultat final.

Bien que certains puissent s'inquiéter des risques de ce type de modification d'image réaliste, où les frontières entre les images originales et modifiées deviennent plus ambiguës, l'équipe est positive quant à ses avantages.

« Pour les utilisateurs publics, nous pensons que le plus grand avantage de cette recherche est de fournir une nouvelle option pour la protection de la confidentialité des images », a déclaré Yatani. « GCR offre une nouvelle méthode de protection contre les menaces liées à la vie privée, tout en conservant une cohérence visuelle à des fins de narration et en permettant aux utilisateurs de partager leur contenu en toute sécurité. »