Les extensions de navigateur ChatGPT sont partout. Certains sont une menace inquiétante
Depuis que ChatGPT est apparu sur le marché, de nombreux utilisateurs ont souhaité expérimenter ce type de système d’intelligence artificielle générative. L’un des moyens les plus simples de le faire était d’utiliser des extensions de navigateur, et même si cela vous offrait effectivement toutes sortes d’options, il s’est avéré que ces extensions sont, avant tout, une chose : une menace pour la sécurité de nos ordinateurs.
De tout, et très dangereux. C’est ce que soulignent les experts en cybersécurité de Kolide, qui ont réalisé une étude dans laquelle ils précisent que dans cette nouvelle vague d’extensions IA, il y en a beaucoup qui sont directement conçues pour nous voler des données, ce qui n’est en aucun cas nouveau . D’autres se sont développés à toute vitesse et ont des conditions de confidentialité qui sont un copier-coller de tout autre service, et d’autres, c’est vrai, sont des expériences d’IA d’entreprises bien connues et respectées.
Ne pas utiliser de données sensibles ou privées. Le problème est que les utilisateurs du monde entier installent ces extensions pour « bricoler » leurs fonctionnalités, et ce faisant, ils introduisent souvent des données sensibles qui peuvent se retrouver là où elles ne devraient pas. Le risque est particulièrement important pour les utilisateurs professionnels qui utilisent ces extensions sur leur lieu de travail.
Extensions de vol de données. En mars, la société de protection de l’identité numérique Guardio a signalé l’un des premiers cas découverts. Une extension Chrome appelée « Accès rapide au chat GPT » volait les comptes Facebook des utilisateurs ainsi qu’une liste de tous les cookies stockés dans le navigateur, y compris ceux liés aux jetons de sécurité.
Google ne peut pas faire face. Bien qu’il n’ait fallu qu’une semaine à l’entreprise pour le détecter et le supprimer, le mal était déjà fait : 2 000 utilisateurs par jour l’avaient téléchargé et utilisé. Quelque chose de similaire s’est produit avec beaucoup plus d’extensions qui promettaient, par exemple, ChatGPT à partir du navigateur. Soit dit en passant, quelque chose de similaire se produit sur les téléphones mobiles, où les utilisateurs paient même pour utiliser ce type d’outil.
Diverses menaces de sécurité. Parmi les menaces, il n’y a pas que le vol de données sensibles, mais même les extensions officielles peuvent avoir des problèmes de sécurité —OpenAI a détecté un bogue dans sa propre plateforme. Il y a aussi le problème du droit d’auteur : les textes, codes ou images générés peuvent finir par être des reproductions partielles d’œuvres protégées par le droit d’auteur, ce qui pose d’importants problèmes juridiques. Les modérateurs de Stack Overflow se sont mis en grève pour expliquer comment le site était inondé de code généré par l’IA.
Injection rapide pour le mal. Le fonctionnement de ChatGPT a déclenché un autre type de cyberattaque appelée « injection rapide ». L’idée est simple : essayez de faire en sorte que le modèle d’IA fasse des choses qu’il ne devrait pas faire avec une invite spécifique. C’est ainsi que Microsoft Edge a fini par nous avouer ses « lois de la robotique », mais les attaques pouvant être menées avec cette méthode peuvent aller beaucoup plus loin et être plus dangereuses. Un développeur nommé Simon Willison indiqué en mai comment la combinaison des plugins ChatGPT Plus pourrait finir par être utilisée pour extraire des données privées.
Comment l’éviter. Le fonctionnement actuel des LLM les rend vulnérables à ce type d’attaque, et il ne semble pas y avoir de solution à l’horizon selon les experts de Kolide. En fait, expliquent-ils, le seul moyen de nous exposer est justement de ne pas faciliter la tâche à ces extensions (ou ChatGPT lui-même) : vous n’avez pas à saisir de données privées sur ces plateformes, et vous n’avez pas à les connecter. à des sources de données privées non plus. Ce n’est pas une bonne idée, par exemple, de donner des données à ChatGPT sur nos finances afin qu’il puisse nous donner un type de conseil financier, ni de lui demander tout type de diagnostic médical préliminaire, en lui donnant des symptômes ou des cliniques privées et réelles données comme référence.
Et que doivent faire les entreprises ? Certains sont déjà très clairs sur le fait que ChatGPT ne sait pas garder les secrets et cela inclut ceux qui ont des informations confidentielles, ils interdisent donc directement l’accès à ChatGPT à leurs employés ou le limitent de manière significative. Le conseil à tous est d’éduquer et de former au moins leurs employés à l’utilisation de ces extensions (et aux risques encourus) et de mettre en place des « listes blanches » d’extensions vérifiées et utilisables.