GPT-4 est un saut de niveau brutal par rapport à ChatGPT : neuf exemples pour le vérifier en personne

ne peut pas garder un secret

Le monde attrape la fièvre ChatGPT. Nous parlons à ce chatbot pour répondre à nos questions et pour nous aider à mieux travailler, mais pendant que nous le faisons, nous disons beaucoup de choses à ce moteur d’intelligence artificielle conversationnel. Ce n’est pas un problème si l’on parle de sujets plus ou moins banals, mais les choses changent, et beaucoup, dans les entreprises.

Top secret. Comme indiqué en lecture sombreun rapport récent du cabinet de conseil en sécurité des données Cyberhaven a révélé que les demandes de saisie de données ont été détectées et bloquées chez 4,2 % des 1,6 million de travailleurs des entreprises qui travaillent avec eux. C’est un pourcentage qui semble faible mais qui est vraiment inquiétant car dans tous les cas le danger était que ces travailleurs finissent par faire fuiter des données sensibles.

Quelles données sensibles peuvent être divulguées ? De tout type. Des informations confidentielles sur l’entreprise aux données clients ou au code source de vos applications. Dans un cas, un responsable a copié et collé le document de stratégie 2023 de l’entreprise dans ChatGPT et lui a demandé de créer une présentation PowerPoint. Dans un autre cas, un médecin a saisi le nom et l’état de santé d’un patient et a demandé à ChatGPT de rédiger une lettre destinée à la compagnie d’assurance du patient.

Tout dire à ChatGPT. Pour ces experts, le danger est réel et va s’accroître. « Il y a eu une migration de données volumineuses d’un cloud à l’autre, et le prochain grand changement sera la migration des données vers ces applications génératives », a déclaré Howard Ting, PDG de Cyberhaven.

Les entreprises commencent à réagir. Certaines entreprises ont déjà reconnu le problème et commencent à agir. JP Morgan a restreint l’utilisation de ChatGPT, et d’autres comme Amazon, Microsoft—quelle ironie—et Wal-Mart ont affiché des avis pour leurs employés : faire attention comment vous utilisez les services d’IA générative.

ChatGPT ne sait pas garder les secrets. Le problème est que si quelqu’un donne des données sensibles à ChatGPT, le moteur ne le sait pas. Les experts en cybersécurité mettent en garde contre une nouveau type d’attaques appelée « extraction de données de formation » ou « exfiltration d’inférence d’apprentissage automatique » qui réalisent essentiellement obtenir de lui des informations confidentielles à ChatGPT.

et cela va à plus. La présentation hier de Microsoft 365 Copilot ne fera que stimuler l’utilisation de ces systèmes avec des données d’entreprise, et bien qu’à Redmond, ils aient assuré que la confidentialité et la protection des données confidentielles sont garanties dans ces environnements, de plus en plus de travailleurs finiront par utiliser ces derniers et d’autres systèmes pour les aider dans leur travail. Cela, que les entreprises le veuillent ou non, peut représenter une menace potentielle. Celui qu’ils devront essayer d’éviter à tout prix.

Image: Ryoji Iwata

A Simseo : GPT-4 : qu’est-ce que c’est, comment ça marche, comment l’utiliser, ce que vous pouvez faire avec ce modèle de langage d’intelligence artificielle