IA générative : plus sûre si on est sur site. Le GPT privé s’affirme
Après le lancement de ChatGPT, l'IA générative semblait pouvoir bouleverser les plans de la plupart des chefs d'entreprise pour l'avenir de leur organisation, sans aucun inconvénient. L'essentiel était quelque chose comme ceci : si vous pouvez penser à la bonne question, il y a de fortes chances que l'IA vous donne une réponse qui vous emmènera dans un endroit nouveau, inexploré et passionnant – même si vous pouvez légitimement demander ce que le « bonne question».
Les risques de s’appuyer sur une IA « publique »
Mais peu de temps après, il est clairement apparu que le recours à l’IA publique et aux grands modèles linguistiques (LLM) tels que ChatGPT, Bing, Claude et Bard sur les plateformes de cloud public comporte également une série de risques. Alors que les expériences dans le cloud public en termes de richesse de fonctionnalités et de rapidité d'innovation ont en effet été extraordinaires, les organisations sont désormais – et à juste titre – préoccupées par l'exactitude des données, la partialité et la confidentialité, les fuites de propriété intellectuelle, la conformité aux nouvelles réglementations, les risques liés à un litige juridique. point de vue encore flou et la croissance vertigineuse des coûts. Autant de facteurs qui, désormais, limiteront de plus en plus l’usage du cloud public.
C’est une assez longue liste de préoccupations, qui s’ajoutent à un problème de confiance plus profond en matière d’IA.
En conséquence, de nombreuses entreprises explorent (ou mettent déjà en œuvre) IA générative sur site. En fait, selon un rapport récent, le choix de l’endroit où les clients souhaitent exécuter l’IA générative est désormais divisé presque exactement en deux, entre le cloud public d’une part et le cloud sur site et en périphérie de l’autre.
J'ai l'impression de confirmer cette tendance. En fait, nous travaillons déjà avec nos clients et notre écosystème de partenaires sur ce sujet et avons déjà co-créé avec eux une solution d'IA générative sur site. Cette solution est également disponible sur la nôtre Test d'IAune plateforme sur laquelle plusieurs POC (Proof of Concept) sont en cours avec des clients d'entreprises de différentes tailles, dans différents secteurs, à travers l'Europe.
LLM, la racine du problème
Les grands modèles de langage s’appuient sur des ensembles de données d’apprentissage énormes, mais toujours limités. Cela présente des risques pour l'exactitude potentielle, comme le fait de placer la généralisation avant la spécificité, le manque de vérification ou l'absence de source de vérité. Une autre préoccupation est que nous risquons de perpétuer, voire d’amplifier, des préjugés. La présence de biais dans les données de formation peut, en fait, amener le modèle à générer un contenu déformé.
Outre les risques liés à l’utilisation de l’IA générative publique, les plateformes de cloud public peuvent présenter des risques de sécurité, tels que des violations de la confidentialité des données, des pertes de propriété intellectuelle et – comme nous venons de le voir – même des risques opérationnels.
Un modèle sur site est plus précis, flexible et contrôlable
Ramener un modèle d’IA sur site, et donc dans le périmètre d’une organisation, signifie que les entreprises peuvent être beaucoup plus réfléchies à leurs besoins en matière de sécurité, de confidentialité ou de souveraineté des données. De plus, ils peuvent être beaucoup plus précis sur ce qui est réellement contenu dans le modèle, réduisant ainsi les risques de biais et d’informations fausses ou obsolètes.
Les organisations peuvent également personnaliser leur modèle pour divers cas d'utilisation spécifiques. Ils peuvent garantir que l'IA est formée sur des données de haute qualité, diverses et représentatives, et la mettre à jour en permanence avec de nouvelles données pour améliorer sa précision, en corroborant les résultats de l'IA générative avec d'autres sources fiables et en informant les utilisateurs sur les points forts et sur les limites de l’IA.
Les sources de données peuvent être sélectionnées avec beaucoup plus de précision, y compris des pools qui ne seraient pas accessibles à une IA publique – comme, par exemple, des informations provenant de différentes équipes de travail ou situées dans un intranet ou un extranet. Les données sur les produits et services peuvent être retirées ou mises à jour en fonction des changements que subissent les produits et services eux-mêmes au fil du temps. Vous pouvez également créer des modèles adaptés aux besoins d’unités commerciales ou de départements spécifiques.
Par exemple, les équipes juridiques souhaiteront recevoir les conseils d’une IA où la réglementation prime sur les considérations marketing. Concrètement, cela permet aux utilisateurs de poser des questions telles que : « Sur la base des versions les plus récentes de nos présentations commerciales et de nos stratégies marketing, quels seront les messages les plus convaincants à transmettre à nos 10 meilleurs clients du monde ? deuxième quartier? ».
Dans l’ensemble, la gestion de l’IA générative en interne offre une flexibilité, une surveillance et un contrôle que les options basées sur le cloud ne peuvent pas offrir.
Une approche plus durable
En fin de compte, les organisations doivent prendre en compte toutes ces considérations dans leurs évaluations. Nous avons parlé de confiance en matière d'exactitude, de partialité, de confidentialité et de sécurité, mais le sujet de l'impact environnemental deviendra probablement tout aussi important dans les mois à venir. La croissance exponentielle des volumes qui alimentent les capacités impressionnantes de l’intelligence artificielle s’accompagne d’un coût en énergie et en refroidissement qui pourrait s’avérer de plus en plus insoutenable.
Cependant, la plupart des cas d'utilisation en entreprise ne nécessitent pas de modèles volumineux, et même si les préoccupations concernant les besoins en alimentation et en refroidissement de l'IA générative augmentent, les solutions sur site offrent une voie plus durable.
L'hébergement sur site en effet, il permet d'adapter la taille, les performances et les coûts du modèle aux besoins de l'organisation. Des solutions sur site correctement personnalisées peuvent être mises à l'échelle correctement, contrairement à une approche unique et « monolithique » du cloud. L’efficacité opérationnelle d’une part et les engagements ESG d’autre part sont ainsi alignés.
Conclusions
Avec tous ces avantages, il n’est pas étonnant que l’IA générative sur site attire autant d’attention.
Dans le même temps, sa mise en œuvre devient de plus en plus simple. Nous fournissons par exemple des architectures de référence pour optimiser la configuration et le dimensionnement de l'infrastructure et un stack complet avec nos partenaires, choisis en fonction du cas d'usage.