L’engouement pour l’IA générative touche à sa fin : la technologie pourrait désormais devenir réellement utile

L’engouement pour l’IA générative touche à sa fin : la technologie pourrait désormais devenir réellement utile

Il y a moins de deux ans, le lancement de ChatGPT a déclenché une frénésie autour de l’IA générative. Certains ont dit que cette technologie allait déclencher une quatrième révolution industrielle, remodelant complètement le monde tel que nous le connaissons.

En mars 2023, Goldman Sachs prévoyait que 300 millions d’emplois seraient perdus ou dégradés à cause de l’IA. Un changement de taille semblait être en cours.

Dix-huit mois plus tard, l’IA générative ne transforme pas le monde des affaires. De nombreux projets utilisant cette technologie sont annulés, comme la tentative de McDonald’s d’automatiser les commandes au drive, qui est devenue virale sur TikTok après avoir produit des échecs comiques. Les efforts du gouvernement pour créer des systèmes permettant de résumer les demandes publiques et de calculer les droits sociaux ont connu le même sort.

Alors que s'est-il passé ?

Le cycle de battage médiatique autour de l'IA

Comme de nombreuses nouvelles technologies, l’IA générative a suivi un chemin connu sous le nom de cycle de battage médiatique de Gartner, décrit pour la première fois par le cabinet de recherche technologique américain Gartner.

Ce modèle, largement utilisé, décrit un processus récurrent dans lequel le succès initial d'une technologie conduit à des attentes publiques exagérées qui ne se concrétisent finalement pas. Après le « pic d'attentes exagérées » initial, vient un « creux de désillusion », suivi d'une « pente d'illumination » qui finit par atteindre un « plateau de productivité ».

Un rapport Gartner publié en juin a indiqué que la plupart des technologies d’IA génératrices se trouvaient soit au sommet des attentes exagérées, soit en pleine croissance. Le rapport indique que la plupart de ces technologies sont à deux à cinq ans de devenir pleinement productives.

De nombreux prototypes convaincants de produits d’IA générative ont été développés, mais leur mise en pratique s’est avérée moins fructueuse. Une étude publiée la semaine dernière par le groupe de réflexion américain RAND a montré que 80 % des projets d’IA échouent, soit plus du double du taux des projets non liés à l’IA.

Lacunes de la technologie actuelle d’IA générative

Le rapport de la RAND énumère de nombreuses difficultés liées à l'IA générative, allant des besoins élevés en investissements dans les données et l'infrastructure d'IA au manque de talents humains nécessaires. Cependant, la nature inhabituelle des limites de l'IA générative représente un défi crucial.

Par exemple, les systèmes d’IA générative peuvent résoudre des tests d’admission universitaires très complexes, mais échouer à des tâches très simples. Il est donc très difficile d’évaluer le potentiel de ces technologies, ce qui conduit à une fausse confiance.

Après tout, s’il peut résoudre des équations différentielles complexes ou écrire un essai, il devrait être capable de prendre des commandes simples au volant, n’est-ce pas ?

Une étude récente a montré que les capacités des grands modèles linguistiques tels que GPT-4 ne correspondent pas toujours à ce que les gens attendent d’eux. En particulier, les modèles les plus performants ont eu de graves contre-performances dans les cas à enjeux élevés où des réponses incorrectes pourraient être catastrophiques.

Ces résultats suggèrent que ces modèles peuvent induire une fausse confiance chez leurs utilisateurs. Comme ils répondent couramment aux questions, les humains peuvent tirer des conclusions trop optimistes sur leurs capacités et déployer les modèles dans des situations pour lesquelles ils ne sont pas adaptés.

L'expérience des projets réussis montre qu'il est difficile de faire en sorte qu'un modèle génératif suive des instructions. Par exemple, le système de tutorat Khanmigo de Khan Academy révélait souvent les bonnes réponses aux questions alors qu'il lui était demandé de ne pas le faire.

Alors pourquoi le battage médiatique autour de l’IA générative n’est-il pas encore terminé ?

Il y a plusieurs raisons à cela.

Premièrement, la technologie de l’IA générative, malgré ses défis, s’améliore rapidement, l’échelle et la taille étant les principaux moteurs de cette amélioration.

Les recherches montrent que la taille des modèles de langage (nombre de paramètres), ainsi que la quantité de données et la puissance de calcul utilisées pour l'apprentissage contribuent toutes à améliorer les performances du modèle. En revanche, l'architecture du réseau neuronal qui alimente le modèle semble avoir un impact minime.

Les grands modèles linguistiques présentent également des capacités dites émergentes, qui sont des capacités inattendues dans des tâches pour lesquelles ils n'ont pas été entraînés. Les chercheurs ont signalé que de nouvelles capacités « émergent » lorsque les modèles atteignent une taille critique de « percée ».

Des études ont montré que des modèles linguistiques suffisamment complexes peuvent développer la capacité de raisonner par analogie et même reproduire des illusions d’optique comme celles que subissent les humains. Les causes précises de ces observations sont contestées, mais il ne fait aucun doute que les modèles linguistiques deviennent de plus en plus sophistiqués.

Les entreprises d’IA travaillent donc toujours sur des modèles plus ambitieux et plus coûteux, et les entreprises technologiques telles que Microsoft et Apple misent sur le retour sur investissement de leurs investissements actuels dans l’IA générative. Selon une estimation récente, l’IA générative devra générer 600 milliards de dollars de revenus annuels pour justifier les investissements actuels – et ce chiffre devrait atteindre 1 000 milliards de dollars dans les années à venir.

Pour l’heure, le grand gagnant de l’essor de l’IA générative est Nvidia, le plus grand producteur de puces qui alimentent la course aux armements de l’IA générative. Véritable fabricant de pelles dans une ruée vers l’or, Nvidia est récemment devenue l’entreprise publique la plus valorisée de l’histoire, triplant le prix de son action en une seule année pour atteindre une valorisation de 3 000 milliards de dollars en juin.

Et ensuite ?

Alors que l’engouement pour l’IA commence à retomber et que nous traversons une période de désillusion, nous assistons également à des stratégies d’adoption de l’IA plus réalistes.

Premièrement, l’IA est utilisée pour assister les humains, plutôt que pour les remplacer. Une enquête récente menée auprès d’entreprises américaines a révélé qu’elles utilisent principalement l’IA pour améliorer leur efficacité (49 %), réduire les coûts de main-d’œuvre (47 %) et améliorer la qualité des produits (58 %).

Deuxièmement, nous observons également une augmentation des modèles d’IA génératifs plus petits (et moins chers), formés sur des données spécifiques et déployés localement pour réduire les coûts et optimiser l’efficacité. Même OpenAI, qui a mené la course aux modèles toujours plus grands, a publié le modèle GPT-4o Mini pour réduire les coûts et améliorer les performances.

Troisièmement, nous constatons une forte concentration sur la formation à l’IA et sur l’éducation des employés sur le fonctionnement de l’IA, ses potentiels et ses limites, ainsi que sur les meilleures pratiques pour une utilisation éthique de l’IA. Nous allons probablement devoir apprendre (et réapprendre) à utiliser différentes technologies d’IA dans les années à venir.

En fin de compte, la révolution de l’IA ressemblera davantage à une évolution. Son utilisation se développera progressivement au fil du temps et, petit à petit, modifiera et transformera les activités humaines. Ce qui est bien mieux que de les remplacer.