Les espions souhaitent également utiliser ChatGPT. Microsoft en a donc créé un spécial pour eux
ChatGPT, comme le reste des chatbots du marché, a un problème : ils ne savent pas garder les secrets. C’est un problème pour de nombreuses entreprises qui les utilisent, mais cela l’est encore plus pour les agences de sécurité gouvernementales.
Les services secrets américains voulaient justement profiter des avantages des modèles d’IA générative, mais en évitant ces risques, et ils ont désormais ce qu’ils cherchaient : quelque chose comme un « ChatGPT pour les espions ».
Ils y sont parvenus grâce à Microsoft, qui a développé un modèle d’IA générative complètement déconnecté d’Internet et permettant d’analyser des informations top secrètes.
Selon William Chappell, responsable du département des missions stratégiques chez Microsoft, c'est la première fois qu'un LLM est utilisé de cette manière, puisque la plupart d'entre eux dépendent des services cloud pour apprendre et déduire des modèles à partir des données.
Le développement de Redmond est basé sur GPT-4 et a été implémenté dans un « cloud privé » isolé d'Internet, généralement appelé « air-gappé ». La CIA avait déjà créé il y a quelques mois un chatbot pour analyser des informations non classifiées, mais la communauté du renseignement devait travailler avec des données beaucoup plus sensibles.
Sheetal Patel, l'un des responsables de cette initiative à l'ICA, a expliqué le mois dernier qu'« il y a une course pour parvenir à l'IA générative pour les données de renseignement », et le premier pays qui parviendra à utiliser ce type de technologie gagnera. « Et nous voulons être nous », a-t-il ajouté.
Microsoft travaille sur ce projet depuis 18 mois. Pour le créer, ils ont profité d'un supercalculateur de l'Iowa spécialisé dans le domaine de l'intelligence artificielle. La version totalement isolée d'Internet Il n'est accessible que par le gouvernement des États-Unis. Seules environ 10 000 personnes peuvent accéder à ce système, a déclaré Chappell. Ce modèle basé sur GPT-4 est également « statique » : il peut lire des fichiers mais ne peut pas en tirer des leçons ni collecter des informations sur Internet. Grâce à cela, il est garanti que le modèle est « propre » et qu’aucune information sensible ne fuit vers l’extérieur.
Le service a commencé à fonctionner cette semaine et va désormais passer par une phase de test et d'évaluation. Cela n’empêche pas qu’il y ait des risques : les modèles d’IA font des erreurs et inventent des choses, il sera donc intéressant de voir si ce chatbot pour les agences de sécurité finit réellement par donner les résultats que recherchent leurs responsables.
Images | Images universelles
À Simseo | L’un des gros inconvénients de ChatGPT est qu’il n’avait pas de « mémoire ». Cela vient de changer