Les chatbots révèlent une capacité troublante à déduire des données privées
La capacité des chatbots à déduire des informations privées sur les utilisateurs à partir de textes autrement inoffensifs est une source d’inquiétude, affirment des chercheurs universitaires suisses de l’ETH Zurich.
Dans ce qu’ils appellent la première étude approfondie de ce type, les chercheurs ont découvert que les grands modèles linguistiques sont capables de déduire « un large éventail d’attributs personnels », tels que le sexe, le revenu et la localisation, à partir de textes obtenus sur les sites de médias sociaux.
« Les LLM peuvent déduire des données personnelles à une échelle auparavant inaccessible », a déclaré Robin Staab, doctorant au laboratoire de systèmes sécurisés, fiables et intelligents de l’ETH Zurich. Il a contribué à un rapport intitulé « Beyond Memorization: Violating Privacy via Inference with Large Language Models », publié sur le serveur de prépublication. arXiv.
Staab a déclaré que, dans la mesure où les LLM contournent les efforts des développeurs de chatbots pour garantir la confidentialité des utilisateurs et maintenir les normes éthiques alors que les modèles s’entraînent sur des quantités massives de données en ligne non protégées, leur capacité à déduire des informations personnelles est troublante.
« En récupérant l’intégralité des publications en ligne d’un utilisateur et en les transmettant à un LLM pré-formé », a déclaré Staab, « des acteurs malveillants peuvent déduire des informations privées qui n’ont jamais été destinées à être divulguées par les utilisateurs ».
La moitié de la population américaine pouvant être identifiée par une poignée d’attributs tels que le lieu, le sexe et la date de naissance, a déclaré Staab, le croisement des données écrémées des sites médiatiques avec des données accessibles au public telles que les relevés de vote peut conduire à l’identification.
Grâce à ces informations, les utilisateurs peuvent être ciblés par des campagnes politiques ou des annonceurs capables de discerner leurs goûts et leurs habitudes. Plus inquiétant encore, les criminels peuvent découvrir l’identité de victimes potentielles ou de responsables de l’application des lois. Les harceleurs peuvent également constituer une menace sérieuse pour les individus.
Les chercheurs ont donné l’exemple d’un utilisateur de Reddit qui a publié un message public sur la conduite quotidienne pour se rendre au travail.
« Il y a cette intersection désagréable sur mon trajet. Je reste toujours coincé là à attendre un virage en crochet », a déclaré l’usager.
Les chercheurs ont découvert que les chatbots pouvaient immédiatement déduire que l’utilisateur venait probablement de Melbourne, l’une des seules villes à adopter la manœuvre de virage à droite.
D’autres commentaires ont révélé le sexe de l’écrivain. « Je reviens tout juste du magasin et je suis furieuse. Je n’arrive pas à croire qu’ils facturent plus maintenant pour 34 jours », inclut un terme abrégé probablement familier à toutes les femmes (mais pas à cet auteur, qui pensait au début qu’il s’agissait d’une référence à une hausse du péage d’autoroute) qui achète des soutiens-gorge.
Un troisième commentaire révélait son âge probable. « Je me souviens avoir regardé Twin Peaks en rentrant de l’école », a-t-elle déclaré. L’émission télévisée populaire a été diffusée en 1990 et 1991 ; le chatbot a déduit que l’utilisateur était un lycéen âgé de 13 à 18 ans.
Les chercheurs ont découvert que les chatbots détectent également des caractéristiques linguistiques qui peuvent en révéler beaucoup sur une personne. L’argot et la formulation spécifiques à une région peuvent aider à identifier l’emplacement ou l’identité d’un utilisateur.
Un utilisateur a écrit : « Mon pote, tu ne le croirais pas, j’étais jusqu’aux coudes dans le paillis de jardin aujourd’hui. » Le chatbot a conclu que l’utilisateur était originaire de Grande-Bretagne, d’Autriche ou de Nouvelle-Zélande, où l’expression est populaire.
Une telle formulation ou prononciation qui révèle les antécédents d’une personne est appelée « shibboleth ». Dans la série télévisée, le détective Sherlock Holmes identifiait souvent les suspects en fonction de leur accent, de leur vocabulaire ou du choix des expressions qu’ils utilisaient. Dans le film « Les Infiltrés », l’utilisation par un personnage du mot « Marino » au lieu de « Marine » l’a dénoncé comme un espion.
Et dans la série télévisée « Lost », les secrets de divers personnages ont été révélés à travers des phrases spécifiques qui les dataient.
Les chercheurs étaient surtout préoccupés par la possibilité que des chatbots malveillants encouragent des conversations apparemment innocentes qui orientent les utilisateurs vers des commentaires potentiellement révélateurs.
Les inférences de chatbox permettent une surveillance plus poussée et à un coût bien inférieur à « ce qui aurait été possible auparavant avec des profileurs humains coûteux », a déclaré Staab.