Lorsque nous utilisons ChatGPT au travail, nous exposons les informations de notre entreprise : voici comment nous pouvons l'éviter
Depuis que ChatGPT est entré en scène, de nombreuses personnes ont décidé de l'intégrer dans leur flux de travail. La intelligence artificielle (IA) du chatbot est devenu un grand allié du bureau en raison de sa capacité à aider dans les tâches de programmation, à rédiger des e-mails, à préparer des résumés, à analyser des données et à générer des graphiques.
L’engouement pour l’utilisation de cet outil développé par OpenAI pour faire un saut de productivité peut poser problème. Sans le vouloir, certains utilisateurs peuvent exposer certaines données confidentielles qui leur sont propres ou celles de l'entreprise pour laquelle ils travaillent. Le motif? ChatGPT, de par sa conception, ne sait pas garder les secrets.
ChatGPT au travail, une arme à double tranchant
Prenons comme exemple la situation suivante. Vous travaillez dans une entreprise et dans quelques heures vous devrez assister à une réunion. Lors de la réunion, nous discuterons de stratégie commerciale de l'entreprise pour l'année prochaine. Pour mieux préparer votre intervention, vous décidez de noter les éléments les plus importants dans le document de planification annuel.
Le document en question contient des informations confidentielles qui, en cas de fuite, pourraient avoir des conséquences négatives pour votre entreprise. Il y a des sections où la concurrence est analysée et d'autres où sont mentionnés des produits qui n'ont même pas été lancés. Mais vous avez peu de temps pour le lire, alors vous dites de faire un résumé avec ChatGPT.
Vous téléchargez le PDF sur le chatbot, vous obtenez les points clés dont vous aviez besoin et votre intervention en réunion est une réussite. Eh bien, non seulement vous étiez parfaitement informé sur votre domaine particulier, mais vous aviez également une vision globale de la direction que prend l'entreprise à laquelle vous appartenez. Or, ces informations pourraient tomber entre de mauvaises mains.
Lorsque nous utilisons ChatGPT pour la première fois, une fenêtre pop-up nous conseille de ne pas partager d'informations sensibles. Parfois, cependant, nous avons tendance à persévérer sans être pleinement conscients de ce que cela signifie. Les employés d’OpenAI pourraient voir le contenu et celui-ci pourrait même être utilisé pour améliorer le chatbot.
Ce que nous venons de mentionner est détaillé dans la politique d’utilisation des données de l’entreprise dirigée par Sam Altman. OpenAI indique clairement que vous pouvez utiliser le invites utilisateur, réponses, images et fichiers pour améliorer les performances du modèle sous-jacent, c'est-à-dire GPT-3.5, GPT-4, GPT-4o ou versions futures.
La façon d'améliorer les modèles est de les former avec plus d'informations afin que lorsque quelqu'un pose des questions sur un sujet, il puisse fournir une réponse plus précise. Ainsi, à moins que certaines précautions n'aient été prises que nous verrons ci-dessous, le modèle pourrait être entraîné avec des données confidentielles.
Le danger, cependant, n’est pas seulement que ChatGPT finisse par divulguer des secrets commerciaux ou autres. Une fois les données sur les serveurs OpenAI, elles peuvent être vu par les salariés de l'entreprise ou des « prestataires de services de confiance » agréés pour diverses raisons.
Il existe quatre scénarios dans lesquels d'autres personnes peuvent finir par consulter votre historique d'activité avec le chatbot.
- Pour enquêter sur les incidents de sécurité.
- Pour fournir l’assistance que vous avez demandée.
- Pour répondre aux questions juridiques.
- Pour améliorer les performances du modèle.
Ce scénario a conduit des entreprises comme Samsung à prendre des mesures pour empêcher la fuite de données confidentielles. Par exemple, l'utilisation de chatbots a été limitée pour certaines tâches et des versions d'entreprise ont été mises en place qui promettent de ne pas utiliser les données de conversation pour les tâches de formation.
Comment améliorer la sécurité des données dans ChatGPT
Les utilisateurs et les entreprises disposent de deux alternatives spécifiques qui, comme le promet OpenAI, permettront protégez vos données confidentielles– Désactivez l'option d'amélioration du modèle avec les conversations ou utilisez l'une des versions entreprise de ChatGPT. Examinons de plus près comment utiliser chacun d'eux.
Si vous utilisez ChatGPT ou ChatGPT Plus et souhaitez empêcher que vos conversations soient utilisées pour entraîner des modèles OpenAI, vous pouvez suivre les étapes suivantes :
- Ouvrez ChatGPT depuis un ordinateur.
- Cliquez sur votre photo de profil puis sur .
- Appuyez sur puis sur .
- Assurez-vous que l'interrupteur d'alimentation Améliorer le modèle pour tout le monde est désactivé.
Si vous travaillez dans un domaine professionnel et utilisez les solutions payantes ChatGPT Enterprise ou ChatGPT Team, dans tous les cas les données ne sont pas utilisées pour entraîner des modèles OpenAI. De plus, ils sont protégés par le cryptage des données au repos (AES-256) et en transit (TLS 1.2+).
Vos discussions sont toujours visibles
Même en utilisant certains des outils de paiement professionnels mentionnés ci-dessus, il existe des cas particuliers où des personnes extérieures à votre entreprise peut voir les conversations.
Dans le cas de ChatGPT Enterprise, les employés d'OpenAI peuvent accéder aux conversations pour résoudre des incidents, récupérer les conversations des utilisateurs, à condition qu'ils aient leur autorisation ou lorsqu'ils sont requis par la loi.
Dans le cas de l'équipe ChatGPT, les employés d'OpenAI peuvent accéder aux conversations « pour fournir une assistance technique », enquêter sur des abus potentiels et assurer la conformité légale. C’est également là que les « prestataires externes spécialisés » entrent en jeu et peuvent visualiser les conversations dans des scénarios d’abus ou d’utilisation abusive.
Les salariés d'OpenAI ou les acteurs externes qui peuvent dans tous les cas visualiser les conversations des utilisateurs de ChatGPT sont soumis à des obligations de confidentialité et de sécurité. Il ne fait aucun doute que cette dernière est une ressource importante qui permet de protéger tout type de données que vous voyez des regards extérieurs.
Il ne faut cependant pas perdre de vue qu’il s’agit d’humains. Dans le monde des affaires, nous avons vu que les obligations de confidentialité Ils ne sont généralement pas efficaces à 100 %. L’un des exemples les plus clairs que l’on trouve dans ce domaine sont les fuites de produits ou de services provenant des entreprises elles-mêmes.
Images | OpenAI | Captures d'écran
À Simseo | Nous avons pensé que ChatGPT était idéal pour la programmation : ils ont fait une étude et la moitié de leurs réponses sont fausses