Les agents de l'IA sont prometteurs. Mais comme dans le FSD de Tesla, vous feriez mieux de ne pas vous prendre la main du volant

Les agents de l’IA sont prometteurs. Mais comme dans le FSD de Tesla, vous feriez mieux de ne pas vous prendre la main du volant

Les agents de l’IA sont l’une des grandes tendances de l’IA cette année. Il y a de nombreuses attentes dans ces modèles d’IA capables de terminer une tâche du début à la fin pour nous et presque si notre intervention. Et pourtant, une chose semble claire: pour le moment, ce sera mieux « de ne pas retirer vos mains du volant » et de regarder chaque pas qu’ils franchissent pour empêcher l’agent d’IA de jouer.

Autonomie et confiance. Le système d’aide à la conduite Tesla – appelé Total Autonomous Driving (FSD) – oblige l’utilisateur à lui faire confiance pour se laisser emporter et que la voiture nous emmène d’un point d’origine à une destination sans intervention humaine. Les agents IA proposent une idée similaire, pour accomplir une tâche du début à la fin de manière autonome, mais pour cela, nous devons croire qu’ils sont capables de le faire.

prise de décision. Les agents nécessiteront d’énormes quantités de données et l’accès aux sources d’informations mises à jour pour analyser ces données, puis prendre des décisions. Dans le passé, nous avons vu comment les modèles d’IA sont particulièrement bons lors du résumé des informations concrètes ou de la possibilité de tirer des conclusions à partir de données limitées, ce qui est très utile pour cette prise de décision.

Apprendre des erreurs. Les voitures Tesla reçoivent des mises à jour FSD fréquentes pour améliorer leur comportement. Ces mises à jour sont nourries par les données collectées par la société lorsque votre système FSD est utilisé, ce qui vous permet de polir le service. Quelque chose de similaire devrait se produire avec les agents de l’IA, qui s’amélioreront – en particulier au début – lorsqu’ils sont mis à jour et « apprendront de leurs erreurs » lors du traitement des demandes des utilisateurs.

IA et agents des entreprises. Ces types de solutions seront particulièrement frappants dans les entreprises qui peuvent ainsi automatiser les processus qui nécessitaient auparavant une intervention humaine totale ou partielle. Et précisément, c’est pourquoi ce type d’intégration doit être fait de manière très contrôlée, car admettons-le: nous ne pouvons pas faire confiance à 100% des modèles d’IA actuels.

Tesla sait que le FSD est imparfait. Cela se produit bien sûr dans le FSD de Tesla, qui depuis sa création a été impliqué dans divers accidents, dont certains avec des décès. L’une des plus récentes a été notifiée en octobre 2024: la faible visibilité a fait il y a quelques mois qu’un Tesla avec FSD activé serait sur un piéton. Tesla a été critiquée à de nombreuses reprises de publicité trompeuse et d’économie du maximum dans les radars et les capteurs pour atteindre une plus grande marge bénéficiaire. Les agents de l’IA peuvent être tout aussi dangereux s’ils sont utilisés incorrectement et « sans avoir les mains dans le volant ». Les utilisateurs et les entreprises qui commencent à les utiliser doivent garder ces risques très présents.

Les mains derrière le volant, s’il vous plaît. La conclusion était déjà claire dans le système Tesla FSD, mais aussi dans le cas des agents. Ils n’ont à peine fait que paraître sur le marché timidement, mais tout indique que c’est l’une des grandes tendances de l’IA d’ici 2025. Et le problème est que les modèles de l’IA sont imparfaits et peuvent donc faire des erreurs, mais c’est que dans les agents de cette erreur, cela augmentera. Pour dire à Air Canada, qui a dû retourner l’argent à un passager qui a obtenu une réponse erronée du chatbot de la compagnie aérienne. Ou Chevrolet, dont le chatbot a été « trompé » par un utilisateur qui a réussi à acheter une de ses voitures pour un dollar.

Effet domino. L’accumulation d’erreurs dans les tâches séquentielles est un problème fondamental dans les modèles d’IA actuels. On pourrait dire que c’est quelque chose comme l’effet Domino ou l’erreur composée: une erreur dans une action initiale déforme toutes les décisions ultérieures, générant des résultats de plus en plus loin de ce qui attend. Imaginez que dans des applications telles que la finance, la médecine ou la logistique: les conséquences pourraient être terribles.

Solution: supervision constante. Pour éviter ce problème, il existe plusieurs solutions proposées. L’un d’eux est la création de points de contrôle. Ainsi, à la fin de chaque sous-plateau, le système et idéalement, un utilisateur humain, ce qu’on appelle l’humanité dans la boucle (HITL) – devrait vérifier que tout se passe bien. Il est également possible de minimiser le risque en utilisant des systèmes redondants – par exemple, en utilisant différents modèles d’IA afin que l’agent d’IA les utilise séparément – ou profite des informations des limites standard: si un fait intermédiaire lancé par un agent d’IA est trop détourné de ce qui est attendu, nous devons rebondir ce processus.

Et pour le moment, dépensé (très) bordé. Nous sommes dans une phase préliminaire, et les agents de l’IA « apprennent à conduire seul », pour ainsi dire. Et la meilleure façon qu’ils apprennent est d’aller étape par étape et de commencer toujours par des scénarios relativement simples et très limités. Ainsi, l’idéal est d’essayer de les appliquer à des cas très spécifiques et avec une casuistique limitée et connue, afin que leurs réponses soient aussi précises.

Image | Erik Wittsoe

Dans Simseo | Microsoft est très important que les agents de l’IA soient la grande boule de l’année. Et est réorganisé pour y parvenir