Les outils d’IA pourraient renforcer la confidentialité des utilisateurs des médias sociaux

utiliser l'iphone

Crédit : domaine public Unsplash/CC0

Selon une étude, des outils intelligents d’IA pourraient protéger la vie privée des utilisateurs de médias sociaux en trompant des algorithmes conçus pour prédire leurs opinions personnelles.

Les assistants numériques pourraient aider à empêcher les utilisateurs de révéler sans le savoir leurs points de vue sur des questions sociales, politiques et religieuses en combattant l’IA par l’IA, selon les chercheurs.

Leurs conclusions suggèrent que les assistants automatisés pourraient offrir aux utilisateurs des conseils en temps réel sur les moyens de modifier leur comportement en ligne pour induire en erreur les outils de détection d’opinion de l’IA afin que leurs opinions restent privées.

Renforcez la confidentialité

L’étude est la première à identifier comment les utilisateurs de Twitter peuvent cacher leurs opinions aux algorithmes de détection d’opinion qui peuvent faciliter le ciblage par des gouvernements autoritaires ou de fausses sources d’information.

Des recherches antérieures se sont concentrées sur les mesures que les propriétaires – plutôt que les utilisateurs – des plateformes de médias sociaux peuvent prendre pour améliorer la confidentialité, bien que de telles actions puissent être difficiles à appliquer, selon l’équipe.

Analyse Twitter

Des chercheurs d’Édimbourg et des universitaires de l’Université de New York à Abu Dhabi ont utilisé les données de plus de 4 000 utilisateurs de Twitter aux États-Unis

L’équipe a utilisé les données pour analyser comment l’IA peut prédire les opinions des gens, en fonction de leurs activités en ligne et de leur profil.

Ils ont également effectué des tests sur les conceptions d’un assistant automatisé pour aider les utilisateurs de Twitter à garder privés leurs points de vue sur des sujets potentiellement controversés tels que l’athéisme, le féminisme et la politique.

Algorithmes trompeurs

Leurs conclusions suggèrent qu’un outil pourrait aider les utilisateurs à masquer leurs opinions en identifiant des indicateurs clés de leurs opinions sur leurs profils, tels que les comptes qu’ils suivent et avec lesquels ils interagissent.

Cela pourrait également aider à dissimuler les opinions des gens en recommandant des actions qui suggèrent aux algorithmes qu’ils ont le point de vue opposé.

Vues des utilisateurs

Les chercheurs ont mesuré à quel point les utilisateurs de Twitter ressentent le besoin de garder leurs opinions privées sur des sujets controversés en réalisant une enquête auprès de plus de 1 000 utilisateurs basés aux États-Unis.

Entre 15 % et 32 % des participants ayant des opinions neutres sur des sujets litigieux ressentaient fortement le besoin de garder leurs opinions privées. Même parmi les utilisateurs ayant des opinions bien arrêtées, entre 10 % et 23 % souhaitent garder leurs opinions pour eux.

Malgré cela, l’équipe a découvert que les activités en ligne de ces utilisateurs pouvaient révéler leurs croyances à des algorithmes malveillants sans qu’ils s’en rendent compte.

« Nos recherches ont montré que l’IA peut utiliser une variété de signaux pour détecter facilement l’opinion des utilisateurs sur de nombreux sujets sans même que les gens en discutent en ligne. Nous avons développé un outil qui peut suggérer des comptes que les utilisateurs peuvent suivre ou retweeter pour induire en erreur les algorithmes de détection d’opinion de l’IA, de sorte qu’ils ne parviennent pas à découvrir la véritable position des gens sur un sujet donné », explique le Dr Walid Magdy, de l’École d’informatique.

L’étude est publiée dans la revue Nexus PNAS.

Fourni par l’Université d’Édimbourg