Samsung vient d’interdire l’utilisation de ChatGPT pour ses employés. Ils te disent des choses qu’ils ne devraient pas
Lorsque vous utilisez ChatGPT, vous ne vous en rendez probablement pas compte, mais la chose normale est que vous saisissiez des données de toutes sortes pour résoudre votre problème. Certains d’entre eux peuvent être sensibles, et cela, certes délicat dans le cas des utilisateurs finaux, l’est encore plus dans le cas des utilisateurs professionnels, comme l’a découvert la multinationale sud-coréenne Samsung.
Que s’est-il passé. Comme indiqué sur CNBC, Samsung restreint l’utilisation de modèles d’IA génératifs tels que ChatGPT parmi ses employés. L’entreprise a découvert que son personnel faisait un usage abusif de cet outil, et ses managers ont confirmé dans ce média qu’ils « restreignaient temporairement » l’utilisation de ces systèmes sur les ordinateurs personnels de l’entreprise. Ils avaient déjà fait ce mouvement dans leurs usines de puces il y a des semaines.
Méfiez-vous de ChatGPT. L’entreprise a informé ses employés dans une communication interne fin avril et leur a indiqué qu’elle avait détecté une utilisation inappropriée de l’outil. Dans Bloomberg, ils ont indiqué comment, début avril, les ingénieurs de Samsung avaient accidentellement divulgué du code Samsung lors de son téléchargement sur ChatGPT. Aucun détail n’est connu sur le code et son impact car il a été divulgué.
Les données sensibles finissent là où elles ne devraient pas. Dans cette déclaration interne, les responsables de Samsung ont indiqué que « l’intérêt pour les plates-formes d’IA génératives, telles que ChatGPT, a augmenté à la fois en interne et en externe. Bien que cet intérêt se concentre sur l’utilité et l’efficacité de ces plates-formes, il existe également une inquiétude croissante en raison de la risques de sécurité posés par l’IA générative. »
Si vous l’utilisez, vous pouvez vous retrouver viré. Les responsables de Samsung ont également précisé dans leur message le risque lié à l’utilisation de cet outil désormais. En plus de demander aux employés de respecter leurs normes de sécurité, ils ont averti que le non-respect pourrait entraîner « des mesures disciplinaires pouvant aller jusqu’au licenciement ».
Samsung n’est pas le premier (et ce ne sera pas le dernier). D’autres entreprises ont déjà pris des mesures similaires face au danger que des données confidentielles se retrouvent dans ChatGPT. Des entités financières telles que JPMorgan Chase & Co, Bank of America et Citigroup – entre autres – ont interdit ou restreint son utilisation en février. La réalité est que le modèle créé par OpenAI ne sait pas garder les secrets et il existe déjà des vecteurs d’attaque pour profiter de ces vulnérabilités. Les entreprises commencent à comprendre les risques liés à l’utilisation de ce modèle et d’autres tels que Bing avec ChatGPT ou Google Bard. JP Morgan a en effet annoncé il y a quelques jours sa propre IA pour analyser les annonces de la Réserve fédérale américaine.
ChatGPT en mode « Incognito ». OpenAI, créateur de ChatGPT, est bien conscient que ce problème existe et prend des mesures pour éviter ou au moins minimiser le risque. La semaine dernière, l’arrivée de ce que certains ont décrit comme un « mode Incognito » pour ChatGPT a été annoncée. En l’activant, ChatGPT ne stocke pas l’historique des discussions et ne l’utilise pas pour améliorer ses performances.
Et préparer plus de mesures. La société prépare également un service d’abonnement à « ChatGPT Business » avec des contrôles de sécurité supplémentaires pour empêcher la fuite d’informations sensibles, afin que les entreprises puissent profiter du potentiel de cette solution sans risque. Cette mesure et d’autres ont été activées en partie en réponse à la situation de ChatGPT en Europe. L’Italie a décidé de l’interdire au niveau national, bien qu’elle ait levé son veto, et d’autres pays européens, dont l’Espagne, envisagent de faire exactement la même chose.
Microsoft prépare son déménagement. Pendant ce temps, Microsoft a pris soin de garder cette question à l’esprit lorsqu’il a présenté Microsoft 365 Copilot, son évolution d’Office qui exploite la puissance de ChatGPT mais le fait d’une manière particulière : en réduisant la portée du modèle d’IA afin que les données confidentielles les personnes avec qui vous travaillez dans ces applications ne quittent pas l’entreprise.