Les entreprises gardent jalousement leurs secrets. OpenAI le sait et a donc introduit un ChatGPT axé sur la confidentialité.
Lorsque nous utilisons ChatGPT, à moins que nous désactivions l’historique, nous autorisons l’utilisation de nos conversations pour améliorer la chatbot d’intelligence artificielle (IA) et former de nouveaux modèles. Ce scénario a déjà entraîné des conséquences inattendues pour des entreprises comme Samsung qui ont décidé d’interdire le produit OpenAI pour éviter les fuites.
La société dirigée par Sam Altman en est consciente depuis longtemps, il n’a donc pas fallu longtemps pour commencer à travailler sur une version professionnelle de ChatGPT. Aujourd’hui, après « moins d’un an de développement », il annonce ChatGPT Enterprise, un outil qui vise à gagner la confiance des entreprises de toutes tailles avec une proposition axée sur la fonctionnalité et la sécurité.
ChatGPT Enterprise devient réalité
ChatGPT Enterprise, selon OpenAI, est le produit du travail interne de l’entreprise, ainsi que de l’aide de plus de 20 organisations. En tant que tel, il vise à répondre à toutes les préoccupations et besoins qu’ils peuvent avoir lors de la mise en œuvre d’un chatbot IA dans leurs flux de travail. Bien que l’accent soit mis sur la sécurité et la confidentialité, il existe d’autres options avancées à considérer.
Au niveau de la confidentialité, cette alternative promet de ne pas utiliser les données de conversation pour la formation, ainsi que de protéger les informations au repos avec AES 256 et en transit avec TLS 1.2+. Il propose également un certificat de conformité à la norme d’organisation SOC 2. En ce qui concerne sa mise en œuvre, une console de gestion des membres, un SSO et une vérification de domaine sont inclus.
Si nous nous concentrons sur le modèle, nous constatons qu’un accès illimité à GPT-4 est fourni. Tout cela avec des performances »jusqu’à deux fois plus vite», accès illimité à l’analyse des données, fenêtres contextuelles étendues, modèles collaboratifs et flux de travail courants. La plus grande différence par rapport à la version conventionnelle est que les entreprises clientes pourront entraîner le modèle avec leurs propres données.
Si nous nous concentrons sur le modèle, nous constatons qu’un accès illimité à GPT-4 est fourni. Tout cela avec des performances « jusqu’à deux fois plus rapides », un accès illimité à l’analyse des données, des fenêtres contextuelles étendues, des modèles collaboratifs et des flux de travail courants. La plus grande différence par rapport à la version conventionnelle est que les entreprises clientes pourront entraîner le modèle avec leurs propres données.
