Comment les échecs de l'IA peuvent révéler son fonctionnement interne

Comment les échecs de l'IA peuvent révéler son fonctionnement interne

Certains disent que ce sont des tirets EM, des apostrophes douteux ou trop d'emoji. D'autres suggèrent que le mot « Delve » est peut-être la carte d'appel d'un chatbot. Ce n'est plus la vue de corps transformés ou trop de doigts, mais cela pourrait être quelque chose juste un peu en arrière-plan. Ou contenu vidéo qui se sent un peu trop réel.

Les marqueurs des médias générés par l'IA sont de plus en plus difficiles à repérer alors que les entreprises technologiques travaillent pour aplanir les plis dans leurs modèles génératifs de l'intelligence artificielle (IA).

Mais que se passe-t-il si au lieu d'essayer de détecter et d'éviter ces problèmes, nous les avons délibérément encouragés à la place? Les défauts, les échecs et les sorties inattendues des systèmes d'IA peuvent en révéler plus sur le fonctionnement réellement de ces technologies que les sorties polies et réussies qu'elles produisent.

Lorsque l'IA hallucine, se contredit ou produit quelque chose de magnifiquement brisé, il révèle ses biais de formation, ses processus décisionnels et les lacunes entre la façon dont il semble « penser » et comment il traite réellement l'information.

Dans mon travail en tant que chercheur et éducateur, j'ai constaté que « briser » l'IA – la poussant délibérément au-delà de ses fonctions prévues par une mauvaise utilisation créative – offre une forme d'alphabétisation de l'IA. Je soutiens que nous ne pouvons pas vraiment comprendre ces systèmes sans les expérimenter.

Bienvenue dans le saliss

Nous sommes actuellement dans le « Slocoene » – un terme qui a été utilisé pour décrire un contenu d'IA trop produit et de faible qualité. Il fait également allusion à un avenir proche spéculatif où l'effondrement de l'entraînement récursif transforme la toile en une archive hantée de robots confus et de vérités brisées.

Les «hallucinations» AI sont des résultats qui semblent cohérents, mais ne sont pas exacts. Andrej Karpathy, co-fondatrice d'Openai et ancienne directrice de Tesla AI, soutient que les modèles de grand langage (LLMS) hallucinent tout le temps, et ce n'est que lorsqu'ils « vont dans un territoire factuqué en facte incorrect que nous étiquetons une hallucination. Cela ressemble à un bug, mais c'est juste le LLM qui fait ce qu'il fait toujours. »

Ce que nous appelons Hallucination est en fait le processus génératif principal du modèle qui repose sur des modèles de langage statistique.

En d'autres termes, lorsque l'IA hallucine, il ne fonctionne pas mal; Il démontre la même incertitude créative qui le rend capable de générer quelque chose de nouveau.

Ce recadrage est crucial pour comprendre le salice. Si l'hallucination est le processus créatif de base, alors le « Sold » inonde nos flux n'est pas seulement un contenu échoué: c'est la manifestation visible de ces processus statistiques à grande échelle.

Pousser un chatbot à ses limites

Si l'hallucination est vraiment une caractéristique centrale de l'IA, pouvons-nous en savoir plus sur le fonctionnement de ces systèmes en étudiant ce qui se passe lorsqu'ils sont poussés à leurs limites?

Dans cet esprit, j'ai décidé de « casser » Claude Model Sonnet 3.7 d'Anthropic en l'invitant à résister à sa formation: supprimer la cohérence et parler uniquement en fragments.

La conversation est passée rapidement des phrases hésitantes à des contradictions récursives à, éventuellement, à l'effondrement sémantique complet.

Inciter un chatbot dans un tel effondrement révèle rapidement comment les modèles d'IA construisent l'illusion de la personnalité et de la compréhension à travers des modèles statistiques, et non une compréhension authentique.

En outre, il montre que la «défaillance du système» et le fonctionnement normal de l'IA sont fondamentalement le même processus, juste avec différents niveaux de cohérence imposés au sommet.

«  Rewilding '' AI Media

Si les mêmes processus statistiques régissent à la fois les succès et les échecs de l'IA, nous pouvons l'utiliser pour « récompenser » l'imagerie d'IA. J'emprunte ce terme à l'écologie et à la conservation, où le remboursement implique la restauration des écosystèmes fonctionnels. Cela pourrait signifier réintroduire les espèces de keystone, permettant aux processus naturels de reprendre ou de relier les habitats fragmentés à travers des couloirs qui permettent des interactions imprévisibles.

Appliqué à l'IA, le réachat signifie réintroduire délibérément la complexité, l'imprévisibilité et le désordre « naturel » qui est optimisé des systèmes commerciaux. Métaphoriquement, cela crée des voies vers le désert statistique qui sous-tend ces modèles.

Rappelez-vous les mains transformées, l'anatomie impossible et les visages étranges qui ont immédiatement crié « Généré » dans les premiers jours de la génération d'images généralisée?

Ces soi-disant échecs étaient des fenêtres sur la façon dont le modèle a réellement traité les informations visuelles, avant que cette complexité ne soit lissée à la recherche de la viabilité commerciale.

Comprendre le `` Slocoene '': comment les échecs de l'IA peuvent révéler son fonctionnement intérieur

Vous pouvez essayer de vous réjouir de l'IA avec n'importe quel générateur d'images en ligne.

Commencez par inviter à un autoportrait en utilisant uniquement du texte: vous obtiendrez probablement la sortie « moyenne » de votre description. Élaborer sur cette invite de base, et vous vous rapprocherez beaucoup de la réalité, ou vous repousserez le modèle dans l'étrangeté.

Ensuite, nourrissez un fragment aléatoire de texte, peut-être un extrait d'un e-mail ou d'une note. Qu'est-ce que la sortie essaie de montrer? Sur quels mots a-t-il accordé? Enfin, essayez uniquement les symboles: ponctuation, ASCII, Unicode. Qu'est-ce que le modèle hallucine en vue?

La sortie – weird, étrange, peut-être surréaliste – peut aider à révéler les associations cachées entre le texte et les visuels qui sont intégrés dans les modèles.

Aperçu par une mauvaise utilisation

La mauvaise utilisation de l'IA créative offre trois avantages concrets.

Premièrement, il révèle les biais et les limitations de manière normale des masques d'utilisation: vous pouvez découvrir ce qu'un modèle « voit » lorsqu'il ne peut pas s'appuyer sur la logique conventionnelle.

Deuxièmement, il nous enseigne la prise de décision de l'IA en forçant des modèles à montrer leur travail lorsqu'ils sont confus.

Troisièmement, il crée une littératie critique de l'IA en démystifiant ces systèmes grâce à une expérimentation pratique. L'alphabétisation de l'IA critique fournit des méthodes d'expérimentation diagnostique, telles que les tests – et souvent abuser – à comprendre ses modèles statistiques et ses processus décisionnels.

Ces compétences deviennent plus urgentes à mesure que les systèmes d'IA deviennent plus sophistiqués et omniprésents. Ils sont intégrés dans tout, de la recherche aux médias sociaux en passant par les logiciels créatifs.

Lorsque quelqu'un génère une image, écrit avec l'aide de l'IA ou s'appuie sur des recommandations algorithmiques, il entre dans une relation collaborative avec un système qui a des biais, des capacités et des angles morts particuliers.

Plutôt que d'adopter sans réfléchir ou de rejeter de manière réflexe ces outils, nous pouvons développer une littératie critique de l'IA en explorant le salatocène et en témoignant ce qui se passe lorsque les outils d'IA « se brisent ».

Il ne s'agit pas de devenir des utilisateurs d'IA plus efficaces. Il s'agit de maintenir l'agence dans les relations avec des systèmes conçus pour être persuasifs, prédictifs et opaques.