DeepMind développe SAFE, une application basée sur l'IA qui peut vérifier les faits des LLM
Une équipe de spécialistes de l'intelligence artificielle de DeepMind de Google a développé un système basé sur l'IA appelé SAFE qui peut être utilisé pour vérifier les résultats des LLM tels que ChatGPT. Le groupe a publié un article décrivant le nouveau système d'IA et ses performances sur le marché. arXiv serveur de préimpression.
Les grands modèles de langage tels que ChatGPT ont beaucoup fait l'actualité ces dernières années : ils peuvent rédiger des articles, donner des réponses à des questions et même résoudre des problèmes mathématiques. Mais ils souffrent d’un problème majeur : la précision. Chaque résultat obtenu par un LLM doit être vérifié manuellement pour garantir que les résultats sont corrects, un attribut qui réduit considérablement leur valeur.
Dans ce nouvel effort, les chercheurs de DeepMind ont créé une application d’IA capable de vérifier les résultats des réponses données par les LLM et de signaler automatiquement les inexactitudes.
L’un des principaux moyens par lesquels les utilisateurs humains des résultats de vérification des faits des LLM consistent à enquêter sur les réponses de l’IA à l’aide d’un moteur de recherche tel que Google pour trouver les sources appropriées de vérification. L'équipe de DeepMind a adopté la même approche. Ils ont créé un LLM qui décompose les affirmations ou les faits dans une réponse fournie par le LLM d'origine, puis ont utilisé la recherche Google pour trouver des sites pouvant être utilisés à des fins de vérification, puis ont comparé les deux réponses pour en déterminer l'exactitude. Ils appellent leur nouveau système Search-Augmented Factuality Evaluator (SAFE).
Pour tester leur système, l'équipe de recherche l'a utilisé pour vérifier environ 16 000 faits contenus dans les réponses données par plusieurs LLM. Ils ont comparé leurs résultats à ceux de vérificateurs de faits humains (crowdsourcing) et ont constaté que SAFE correspondait aux conclusions des humains dans 72 % des cas. En testant les désaccords entre SAFE et les contrôleurs humains, les chercheurs ont constaté que SAFE était celui qui avait raison dans 76 % des cas.
L'équipe de DeepMind a mis le code de SAFE à la disposition de toute personne choisissant de profiter de ses capacités en le publiant sur le site open source GitHub.