Que sont les hallucinations AI? Pourquoi les AIS inventent parfois les choses
Quand quelqu’un voit quelque chose qui n’est pas là, les gens se réfèrent souvent à l’expérience comme une hallucination. Les hallucinations se produisent lorsque votre perception sensorielle ne correspond pas aux stimuli externes.
Les technologies qui reposent sur l’intelligence artificielle peuvent également avoir des hallucinations.
Lorsqu’un système algorithmique génère des informations qui semblent plausibles mais qui sont en fait inexactes ou trompeuses, les informaticiens l’appellent une hallucination IA. Les chercheurs ont trouvé ces comportements dans différents types de systèmes d’IA, des chatbots tels que Chatgpt aux générateurs d’images tels que Dall-E aux véhicules autonomes. Nous sommes des chercheurs en sciences de l’information qui ont étudié les hallucinations dans les systèmes de reconnaissance vocale de l’IA.
Partout où les systèmes d’IA sont utilisés dans la vie quotidienne, leurs hallucinations peuvent présenter des risques. Certains peuvent être mineurs – lorsqu’un chatbot donne la mauvaise réponse à une question simple, l’utilisateur peut finir par mal informer. Mais dans d’autres cas, les enjeux sont beaucoup plus élevés. Des salles d’audience où les logiciels de l’IA sont utilisés pour prendre des décisions de détermination de la peine aux compagnies d’assurance maladie qui utilisent des algorithmes pour déterminer l’admissibilité d’un patient à la couverture, les hallucinations IA peuvent avoir des conséquences qui changent la vie. Ils peuvent même être mortels: les véhicules autonomes utilisent l’IA pour détecter les obstacles, les autres véhicules et les piétons.
Inventer
Les hallucinations et leurs effets dépendent du type de système d’IA. Avec de grands modèles de langue – la technologie sous-jacente des chatbots d’IA – les harcèlements sont des informations qui semblent convaincantes mais sont incorrectes, composées ou hors de propos. Un chatbot d’IA peut créer une référence à un article scientifique qui n’existe pas ou ne fournit un fait historique qui est tout simplement faux, mais le rendre crédible.
Dans une affaire judiciaire en 2023, par exemple, un avocat de New York a soumis un mémoire juridique qu’il avait écrit avec l’aide de Chatgpt. Un juge exigeant a remarqué plus tard que le mémoire a cité une affaire que Chatgpt avait composé. Cela pourrait conduire à différents résultats dans les salles d’audience si les humains n’étaient pas en mesure de détecter l’information hallucinée.
Avec des outils d’IA qui peuvent reconnaître les objets dans les images, les hallucinations se produisent lorsque l’IA génère des légendes qui ne sont pas fidèles à l’image fournie. Imaginez demander à un système de répertorier des objets dans une image qui ne comprend qu’une femme du coffre en parlant sur un téléphone et en recevant une réponse qui dit une femme parlant sur un téléphone tout en étant assis sur un banc. Cette information inexacte pourrait entraîner des conséquences différentes dans les contextes où la précision est essentielle.
Ce qui cause les hallucinations
Les ingénieurs construisent des systèmes d’IA en rassemblant des quantités massives de données et en les alimentant dans un système de calcul qui détecte les modèles dans les données. Le système développe des méthodes pour répondre aux questions ou effectuer des tâches en fonction de ces modèles.
Fournir un système d’IA avec 1 000 photos de différentes races de chiens, étiquetées en conséquence, et le système apprendra bientôt à détecter la différence entre un caniche et un golden retriever. Mais nourrissez-le une photo d’un muffin aux myrtilles et, comme l’ont montré des chercheurs d’apprentissage en machine, il peut vous dire que le muffin est un chihuahua.
Lorsqu’un système ne comprend pas la question ou les informations dont elle est présentée, elle peut halluciner. Les hallucinations se produisent souvent lorsque le modèle comble les lacunes basées sur des contextes similaires à partir de ses données de formation, ou lorsqu’il est construit en utilisant des données de formation biaisées ou incomplètes. Cela conduit à des suppositions incorrectes, comme dans le cas du muffin aux myrtilles mal étiqueté.
Il est important de faire la distinction entre les hallucinations d’IA et les sorties d’IA intentionnellement créatives. Lorsqu’un système d’IA est invité à être créatif – comme lors de l’écriture d’une histoire ou de la génération d’images artistiques – ses nouvelles sorties sont attendues et souhaitées. Les hallucinations, en revanche, se produisent lorsqu’un système d’IA est invité à fournir des informations factuelles ou à effectuer des tâches spécifiques, mais génère plutôt du contenu incorrect ou trompeur tout en le présentant comme précis.
La principale différence réside dans le contexte et le but: la créativité convient aux tâches artistiques, tandis que les hallucinations sont problématiques lorsque la précision et la fiabilité sont nécessaires.
Pour résoudre ces problèmes, les entreprises ont suggéré d’utiliser des données de formation de haute qualité et de limiter les réponses de l’IA pour suivre certaines directives. Néanmoins, ces problèmes peuvent persister dans les outils d’IA populaires.
Qu’est-ce qui est à risque
L’impact d’une sortie comme appeler un muffin aux myrtilles un chihuahua peut sembler trivial, mais considérez les différents types de technologies qui utilisent des systèmes de reconnaissance d’image: un véhicule autonome qui ne parvient pas à identifier les objets pourrait conduire à un accident de la circulation mortel. Un drone militaire autonome qui identifie mal une cible pourrait mettre en danger la vie des civils.
Pour les outils d’IA qui fournissent une reconnaissance vocale automatique, les hallucinations sont des transcriptions de l’IA qui incluent des mots ou des phrases qui n’ont jamais été réellement parlées. Cela est plus susceptible de se produire dans des environnements bruyants, où un système d’IA peut finir par ajouter des mots nouveaux ou non pertinents pour tenter de déchiffrer le bruit de fond tel qu’un camion qui passe ou un nourrisson qui pleure.
À mesure que ces systèmes s’intégrent plus régulièrement dans les soins de santé, les services sociaux et les milieux juridiques, les hallucinations en reconnaissance automatique de la parole pourraient conduire à des résultats cliniques ou juridiques inexacts qui nuisent aux patients, aux défendeurs criminels ou aux familles qui ont besoin d’un soutien social.
Vérifiez le travail d’Ai
Indépendamment des efforts des entreprises d’IA pour atténuer les hallucinations, les utilisateurs doivent rester vigilants et remettre en question les résultats de l’IA, en particulier lorsqu’ils sont utilisés dans des contextes qui nécessitent une précision et une précision. Les informations générées par les AI à double vérification avec des sources de confiance, les experts en consultation si nécessaire et la reconnaissance des limites de ces outils sont des étapes essentielles pour minimiser leurs risques.