Les grands modèles linguistiques formés en anglais utilisent cette langue en interne, même pour les invites dans d'autres langues.

Que se passe-t-il lorsque l'IA fait face au problème humain de l'incertitude?

Dans un monde de plus en plus façonné par l'intelligence artificielle, la question de savoir comment les machines prennent des décisions dans des conditions incertaines deviennent plus urgentes chaque jour.

Comment peser les valeurs concurrentes lorsque les résultats sont incertains? Qu'est-ce qui constitue un choix raisonnable lorsque des informations parfaites sont indisponibles? Ces questions, autrefois confinées à la philosophie académique, sont maintenant à l'avant et au centre alors que nous déléguons des décisions de plus en plus complexes à l'IA.

Un nouveau cadre de modèle de grande langue (LLM) développé par Willie Neiswanger, professeur adjoint d'informatique à la USC Viterbi School of Engineering et à l'USC School of Advanced Computing, ainsi que les étudiants du département d'informatique, combine la théorie des décisions classiques et les principes de la théorie des services publics pour améliorer considérablement la capacité de l'IA à faire face à l'incertitude et à lutter contre ces décisions complexes.

Les recherches de Neiswanger ont été mise en lumière lors de la conférence internationale de 2025 sur les représentations de l'apprentissage et publiée sur le arxiv serveur de préimprimée. Il a récemment expliqué comment l'IA gère l'incertitude avec l'USC News.

Que pensez-vous de la différence entre l'intelligence artificielle et humaine?

Neiswanger: À l'heure actuelle, l'intelligence humaine a diverses forces par rapport à l'intelligence machine. Cependant, l'intelligence machine a également certaines forces par rapport aux humains, ce qui la rend précieuse.

Modèles de grande langue (LLMS) – Systèmes AI formés sur de grandes quantités de texte qui peuvent comprendre et générer des réponses humaines – par exemple, peuvent ingérer rapidement et synthétiser de grandes quantités d'informations à partir de rapports ou d'autres sources de données, et peuvent générer à grande échelle en simulant de nombreux futurs possibles ou en proposant un large éventail de résultats prévus. Dans notre travail, nous visons à profiter des forces des LLM tout en les équilibrant avec les forces et le jugement des humains.

Pourquoi les modèles actuels de grande langue de l'IA ont-ils du mal avec l'incertitude?

Neiswanger: L'incertitude est un défi fondamental dans la prise de décision du monde réel. Les systèmes d'IA actuels ont du mal à équilibrer correctement l'incertitude, les preuves et le processus de prédiction en fonction de la probabilité de résultats différents, ainsi que des préférences des utilisateurs face à des variables inconnues.

Contrairement aux experts humains qui peuvent exprimer des degrés de confiance et reconnaître les limites de leurs connaissances, les LLM génèrent généralement des réponses avec une confiance apparente, qu'elles s'inspirent de modèles bien établis ou faisaient des prédictions incertaines qui vont au-delà des données disponibles.

Comment vos recherches se croisent-elles avec l'incertitude?

Neiswanger: Je me concentre sur le développement de méthodes d'apprentissage automatique pour la prise de décision dans l'incertitude, en mettant l'accent sur la prise de décision séquentielle – les situations où vous faites une série de choix au fil du temps, chaque décision affectant les options futures – dans les paramètres où les données sont coûteuses à acquérir.

Cela inclut des applications telles que l'optimisation de la boîte noire (trouver la meilleure solution lorsque vous ne pouvez pas voir comment le système fonctionne en interne), la conception expérimentale (études de planification ou tests pour obtenir les informations les plus utiles) et les tâches de prise de décision en science et en ingénierie – par exemple, des matériaux ou de la découverte de médicaments et l'optimisation des systèmes informatiques.

Je suis également intéressé par les grands modèles de fondation (systèmes d'IA massifs formés sur d'énormes ensembles de données qui servent de base pour de nombreuses applications), en particulier les modèles de langues, peuvent à la fois améliorer et bénéficier de ces cadres décisionnels: d'une part, aider les humains à prendre de meilleures décisions dans des environnements incertains, et d'autre part, en utilisant des méthodes mathématiques pour prendre des choix optimaux pour améliorer les résultats de l'entraînement et la qualité de la formation en mathématiques et de l'entraînement en mathématiques pour la tenue finale.

Comment votre recherche a-t-elle abordé le problème de l'incertitude et de l'IA?

Neiswanger: Nous nous sommes concentrés sur l'amélioration de la capacité d'une machine à quantifier l'incertitude, en lui apprenant essentiellement à mesurer et à exprimer à quel point il devrait être confiant à propos de différentes prédictions.

En particulier, nous avons développé une approche de quantification de l'incertitude qui permet aux modèles linguistiques importants de prendre des décisions sous des informations incomplètes, tout en faisant des prévisions avec des niveaux de confiance mesurables qui peuvent être vérifiés et en choisissant des actions qui offrent le plus grand avantage aligné sur les préférences humaines.

Le processus a commencé par identifier les principales variables incertaines qui sont pertinentes pour la prise de décision, puis avoir des modèles linguistiques attribuer des scores de probabilité basés sur le langage à différentes possibilités (telles que le rendement d'une culture, le prix d'un stock, la date d'un événement incertain, le volume projeté de expéditions d'entrepôt, etc.), en fonction des rapports, des données historiques et d'autres informations contextuelles, qui ont ensuite été converties à des probabilités de nombre numériques.

Y a-t-il des applications immédiates?

Neiswanger: Dans des contextes commerciaux, il peut améliorer la planification stratégique en fournissant des évaluations plus réalistes des incertitudes du marché et des dynamiques concurrentielles.

En milieu médical, il peut fournir un soutien diagnostique ou aider à la planification du traitement en aidant les médecins à mieux tenir compte de l'incertitude des symptômes et des résultats des tests. Dans la prise de décision personnelle, cela peut aider les utilisateurs à obtenir des conseils plus informés et pertinents des modèles de langue sur les choix quotidiens.

La capacité du système à s'aligner sur les préférences humaines a été particulièrement précieuse dans les contextes où la permettant aux ordinateurs de trouver la solution mathématiquement « la meilleure » pourrait manquer d'importantes valeurs humaines ou contraintes.

En modélisant explicitement les préférences des parties prenantes et en les incorporant dans des évaluations mathématiques de la valeur des différents résultats différents envers les personnes, le cadre produit des recommandations qui sont non seulement techniquement optimales mais aussi pratiquement acceptables pour les personnes qui les mettent en œuvre.

Quelle est la prochaine étape pour vos recherches?

Neiswanger: Nous explorons maintenant comment ce cadre peut être étendu à un éventail plus large de décisions du monde réel dans des tâches d'incertitude, y compris des applications dans la recherche opérationnelle (en utilisant des méthodes mathématiques pour résoudre des problèmes commerciaux complexes), la logistique et les soins de santé. Un objectif à l'avenir consiste à améliorer l'audit humain: développer des interfaces qui donnent aux utilisateurs une visibilité plus claire sur les raisons pour lesquelles un LLM prend une décision particulière, et pourquoi cette décision est optimale.