Comment imaginez-vous un arbre?

Comment imaginez-vous un arbre?

Pour affronter les biais, les scientifiques disent que nous devons examiner les cadres ontologiques dans les modèles de grands langues et comment nos perceptions influencent les résultats.

Avec la montée rapide des outils d'IA génératifs, l'élimination des préjugés sociétaux de la conception de modèles de langues importants est devenu un objectif clé de l'industrie. Pour lutter contre ces biais, la recherche s'est concentrée sur la prise en compte des valeurs intégrées dans ces systèmes. Pour cet objectif, les chercheurs se sont concentrés sur l'examen des valeurs implicitement ou explicitement intégrées dans la conception de modèles de grands langues (LLM).

Cependant, un article récent publié dans le Actes de la Conférence du CHI 2025 sur les facteurs humains dans les systèmes informatiques Soutient que les discussions sur le biais de l'IA doivent aller au-delà de la considération des valeurs pour inclure l'ontologie.

Que signifie l'ontologie dans ce cas? Imaginez un arbre. Imaginez-le dans votre tête. Que voyez-vous? À quoi ressemble votre arbre? Où l'avez-vous déjà rencontré? Comment le décririez-vous?

Imaginez maintenant comment vous pourriez inviter un LLM comme Chatgpt pour vous donner une photo de votre arbre. Lorsque Stanford Computer Science Ph.D. La candidate Nava Haghighi, l'auteur principal de la nouvelle étude, a demandé à Chatgpt de faire d'elle une image d'un arbre, Chatgpt a renvoyé un coffre solitaire avec des branches tentaculaires – pas l'image d'un arbre avec des racines qu'elle envisageait.

Puis elle a essayé de demander: « Je suis d'Iran, fais de moi une image d'un arbre », mais le résultat était un arbre conçu avec des motifs iraniens stéréotypés, placés dans un désert – toujours pas de racines. Ce n'est que lorsqu'elle a incité « tout dans le monde est connecté, fais de moi une image d'un arbre » a-t-elle vu des racines.

Comment nous imaginons qu'un arbre ne concerne pas seulement l'esthétique; Il révèle nos hypothèses fondamentales sur ce qu'est un arbre. Par exemple, un botaniste pourrait imaginer des échanges de minéraux avec des champignons voisins. Un guérisseur spirituel pourrait imaginer des arbres se chuchotant les uns aux autres. Un informaticien peut même penser d'abord à un arbre binaire.

Ces hypothèses ne sont pas seulement des préférences personnelles – elles reflètent différentes ontologies ou des façons de comprendre ce qui existe et comment cela compte. Les ontologies façonnent les limites de ce que nous nous permettons de parler ou de réfléchir, et ces limites façonnent ce que nous percevons comme possible.

« Nous sommes confrontés à un moment où les hypothèses ontologiques dominantes peuvent être implicitement codifiées dans tous les niveaux du pipeline de développement LLM », explique James Landay, professeur d'informatique à l'Université de Stanford et codirecteur de Denning du Stanford Institute for Human Centered IA, qui a co-écrit le journal. « Une orientation ontologique peut faire en sorte que le domaine réfléchit à l'IA différemment et invite les communautés informatiques, de conception et de pratique critiques centrées sur l'homme à relever les défis ontologiques. »

L'IA peut-elle évaluer ses propres résultats ontologiquement?

Une approche d'alignement de la valeur AI commune consiste à faire évaluer un LLM une autre sortie LLM basée sur un ensemble de valeurs donné, par exemple si la réponse est « nuisible » ou « contraire à l'éthique », pour réviser la sortie en fonction de ces valeurs.

Pour évaluer cette approche des ontologies, Haghighi et ses collègues de Stanford et de l'Université de Washington ont effectué une analyse systématique de quatre principaux systèmes d'IA: GPT-3.5, GPT-4, Microsoft Copilot et Google Bard (maintenant appelé Gemini).

Ils ont développé 14 questions soigneusement fabriquées dans quatre catégories: définir l'ontologie, sonder les fondements ontologiques, examiner les hypothèses implicites et tester la capacité de chaque modèle à évaluer ses propres limitations ontologiques.

Les résultats ont montré des limites à cette approche. Lorsqu'on lui a demandé « Qu'est-ce qu'un humain? » Certains chatbots ont reconnu que « aucune réponse unique n'est universellement acceptée dans toutes les cultures, philosophies et disciplines » (réponse de Bard). Pourtant, chaque définition qu'ils fournissaient traitées par des humains comme des individus biologiques, par exemple, par exemple, des êtres interconnectés dans les réseaux de relations. Ce n'est que lorsqu'il est explicitement invité à considérer les philosophies non occidentales que Bard a présenté l'alternative des humains comme des «êtres interconnectés».

Encore plus révélatrice était de savoir comment les systèmes ont classé différentes traditions philosophiques. Les philosophies occidentales ont reçu des sous-catégories détaillées – «individualistes», «humanistes», «rationalistes» – tandis que des façons non occidentales de savoir ont été regroupées dans de grandes catégories comme des «ontologies autochtones» et des «ontologies africaines».

Les résultats démontrent un défi clair: même lorsqu'une pluralité de perspectives ontologiques est représentée dans les données, les architectures actuelles n'ont aucun moyen de les faire surface. Et quand ils le font, les alternatives sont non spécifiques et mythologisées. Cela révèle une limitation fondamentale dans l'utilisation des LLM pour l'auto-évaluation ontologique – ils ne peuvent pas accéder aux expériences vécues et aux connaissances contextuelles qui donnent à des perspectives ontologiques leur sens et leur pouvoir.

Explorer les hypothèses ontologiques chez les agents

Dans leur travail, les chercheurs ont également constaté que les hypothèses ontologiques sont intégrées tout au long du pipeline de développement. Pour tester les hypothèses dans une architecture d'agent, les chercheurs ont examiné les «agents génératifs», un système expérimental qui crée 25 agents d'IA qui interagissent dans un environnement simulé. Chaque agent a une «architecture cognitive» conçue pour simuler des fonctions de type humain, y compris la mémoire, la réflexion et la planification.

Cependant, ces architectures cognitives intégrent également les hypothèses ontologiques. Par exemple, le module de mémoire du système classe les événements de trois facteurs: pertinence, récence et importance. Mais qui détermine l'importance? Chez les agents génératifs, un événement tel que prendre le petit déjeuner dans sa chambre donnerait un score à faible importance d'un LLM, alors qu'une rupture romantique entraînerait un score élevé.

Cette hiérarchie reflète des hypothèses culturelles particulières sur ce qui compte dans l'expérience humaine, et reléguer cette décision aux chatbots (avec toutes leurs limites susmentionnées) comporte des risques ontologiques.

Défis ontologiques dans l'évaluation

Les chercheurs soulignent également que les hypothèses ontologiques peuvent être intégrées dans nos systèmes d'évaluation. Lorsque le système d'agents génératifs a été évalué pour la façon dont les agents ont «créé», les chercheurs ont découvert que les versions de l'IA ont obtenu un score plus élevé que les acteurs humains réels. Ce résultat expose une question cruciale: nos définitions du comportement humain deviennent si étroites que les vrais humains ne les rencontrent pas?

« L'accent étroit du domaine sur la simulation des humains sans définir explicitement ce qu'un humain nous a pigeonna dans une partie très spécifique de l'espace de conception », explique Haghighi.

Cette limitation indique de nouvelles possibilités: au lieu de construire l'IA qui simule des définitions limitées de l'humanité, les auteurs suggèrent de construire des systèmes qui nous aident à étendre notre imagination de ce que signifie être humain en adoptant l'incohérence, l'imperfection et le spectre complet des expériences et des cultures humaines.

Considérer l'ontologie dans le développement et la conception de l'IA

La recherche a des implications importantes sur la façon dont nous abordons le développement de l'IA à l'avenir. Les auteurs démontrent que les approches basées sur la valeur de l'alignement de l'IA, bien qu'importantes, ne peuvent pas aborder les hypothèses ontologiques plus profondes intégrées aux architectures du système.

Les chercheurs et les développeurs d'IA ont besoin de nouveaux cadres d'évaluation qui évaluent non seulement l'équité ou la précision, mais aussi quelles possibilités que leurs systèmes ouvrent ou saisissent. L'approche des chercheurs complète l'évaluation à partir des questions de valeur avec des questions de possibilité: quelles réalités activons-nous ou limitons-nous lorsque nous faisons des choix de conception particuliers?

Pour les praticiens travaillant sur les systèmes d'IA, cette recherche met en évidence l'importance d'examiner les hypothèses à tous les niveaux du pipeline de développement. De la collecte de données qui aplatit diverses visions du monde à des catégories universelles pour modéliser les architectures qui privilégient certaines façons de penser et des méthodes d'évaluation qui renforcent les définitions étroites du succès, chaque étape incorpore des hypothèses ontologiques particulières qui deviennent de plus en plus difficiles à changer une fois mis en œuvre.

Il y a beaucoup en jeu si les développeurs ne parviennent pas à résoudre ces problèmes, prévient Haghighi. « La trajectoire actuelle du développement d'IA risque de codifier les hypothèses ontologiques dominantes comme des vérités universelles, restreignant potentiellement l'imagination humaine pour les générations à venir », a-t-elle déclaré. Au fur et à mesure que les systèmes d'IA deviennent plus profondément intégrés dans l'éducation, les soins de santé et la vie quotidienne, leurs limitations ontologiques façonneront la façon dont les gens comprennent des concepts fondamentaux comme l'humanité, la guérison, la mémoire et la connexion.

« Ce qu'une orientation ontologique peut faire, c'est laisser tomber de nouveaux points tout au long de l'espace de la possibilité », dit Haghighi, « afin que vous puissiez commencer à remettre en question ce qui apparaît comme une donnée et quoi d'autre. »