Pour comprendre les problèmes de l’IA, regardez les raccourcis pris pour le créer
Une machine ne peut que « faire tout ce que nous savons comment lui ordonner de fonctionner », a écrit la pionnière de l’informatique du XIXe siècle, Ada Lovelace. Cette déclaration rassurante a été faite en relation avec la description par Charles Babbage du premier ordinateur mécanique.
Lady Lovelace ne pouvait pas savoir qu’en 2016, un programme appelé AlphaGo, conçu pour jouer et s’améliorer au jeu de société « Go », serait non seulement capable de vaincre tous ses créateurs, mais le ferait d’une manière qu’ils ne pourraient pas expliquer.
En 2023, le chatbot AI ChatGPT porte cela à un autre niveau, tenant des conversations dans plusieurs langues, résolvant des énigmes et même passant des examens juridiques et médicaux. Nos machines sont désormais capables de faire des choses que nous, leurs fabricants, ne savons pas « comment leur ordonner de faire ».
Cela a suscité à la fois de l’enthousiasme et des inquiétudes quant au potentiel de cette technologie. Notre angoisse vient de ne pas savoir à quoi s’attendre de ces nouvelles machines, tant au niveau de leur comportement immédiat que de leur évolution future.
Nous pouvons leur donner un sens, et les risques, si l’on considère que tous leurs succès, et la plupart de leurs problèmes, proviennent directement de la recette particulière que nous suivons pour les créer.
La raison pour laquelle les machines sont maintenant capables de faire des choses que nous, leurs fabricants, ne comprenons pas entièrement, c’est parce qu’elles sont devenues capables d’apprendre par l’expérience. AlphaGo est devenu si bon en jouant à plus de jeux de Go qu’un humain ne pourrait en tenir dans une vie. De même, aucun humain ne pourrait lire autant de livres que ChatGPT en a absorbé.
Réduire l’anxiété
Il est important de comprendre que les machines sont devenues intelligentes sans penser de manière humaine. Cette prise de conscience à elle seule peut réduire considérablement la confusion, et donc l’anxiété.
L’intelligence n’est pas exclusivement une capacité humaine, comme n’importe quel biologiste vous le dira, et notre marque spécifique n’en est ni l’apogée ni sa destination. Cela peut être difficile à accepter pour certains, mais l’intelligence a plus à voir avec des poulets traversant la route en toute sécurité qu’avec l’écriture de poésie.
En d’autres termes, nous ne devrions pas nécessairement nous attendre à ce que l’intelligence des machines évolue vers une certaine forme de conscience. L’intelligence est la capacité de faire ce qu’il faut dans des situations inconnues, et cela se retrouve dans les machines, par exemple celles qui recommandent un nouveau livre à un utilisateur.
Si nous voulons comprendre comment gérer l’IA, nous pouvons revenir à une crise qui a frappé l’industrie à la fin des années 1980, lorsque de nombreux chercheurs essayaient encore d’imiter ce que nous pensions que les humains faisaient. Par exemple, ils essayaient de comprendre les règles du langage ou du raisonnement humain, de les programmer dans des machines.
Cela n’a pas fonctionné, alors ils ont fini par prendre des raccourcis. Cette décision pourrait bien s’avérer être l’une des décisions les plus importantes de notre histoire.
Fourche sur la route
Le premier raccourci consistait à s’appuyer sur la prise de décisions basées sur des modèles statistiques trouvés dans les données. Cela a supprimé le besoin de comprendre réellement les phénomènes complexes que nous voulions que les machines imitent, comme le langage. La fonction de saisie semi-automatique de votre application de messagerie peut deviner le mot suivant sans comprendre vos objectifs.
Alors que d’autres avaient des idées similaires auparavant, le premier à faire fonctionner cette méthode, et à s’y tenir, était probablement Fredrick Jelinek d’IBM, qui a inventé les « modèles de langage statistiques », les ancêtres de tous les GPT, tout en travaillant sur la traduction automatique.
Au début des années 1990, il résumait ce premier raccourci en plaisantant : « Chaque fois que je licencie un linguiste, les performances de nos systèmes augmentent. Bien que le commentaire ait pu être dit en plaisantant, il reflétait un changement dans le monde réel de l’IA essaie d’imiter les règles du langage.
Cette approche s’est rapidement étendue à d’autres domaines, introduisant un nouveau problème : le sourcing des données nécessaires à l’apprentissage des algorithmes statistiques.
Créer les données spécifiquement pour les tâches de formation aurait été coûteux. Un deuxième raccourci est devenu nécessaire : les données pourraient être récoltées sur le Web à la place.
Quant à connaître l’intention des utilisateurs, comme dans les systèmes de recommandation de contenu, un troisième raccourci a été trouvé : observer en permanence le comportement des utilisateurs et en déduire sur quoi ils pourraient cliquer.
À la fin de ce processus, l’IA s’est transformée et une nouvelle recette est née. Aujourd’hui, cette méthode se retrouve dans tous les outils de traduction, de recommandations et de questions-réponses en ligne.
Carburant pour fonctionner
Malgré tout son succès, cette recette crée aussi des problèmes. Comment être sûr que les décisions importantes sont prises équitablement, quand on ne peut pas inspecter les rouages de la machine ?
Comment empêcher les machines d’accumuler nos données personnelles, alors que c’est le carburant même qui les fait fonctionner ? Comment peut-on s’attendre à ce qu’une machine empêche les contenus préjudiciables d’atteindre les utilisateurs, alors qu’elle est conçue pour apprendre ce qui fait cliquer les gens ?
Cela n’aide pas que nous ayons déployé tout cela dans une position très influente au centre même de notre infrastructure numérique, et que nous ayons délégué de nombreuses décisions importantes à l’IA.
Par exemple, ce sont les algorithmes, plutôt que les décideurs humains, qui dictent ce que nous affichons sur les réseaux sociaux en temps réel. En 2022, le coroner qui a statué sur la mort tragique de Molly Russell, 14 ans, a en partie accusé un algorithme d’avoir montré du matériel préjudiciable à l’enfant sans y être invité.
Comme ces préoccupations découlent des mêmes raccourcis qui ont rendu la technologie possible, il sera difficile de trouver de bonnes solutions. C’est aussi pourquoi les premières décisions de l’autorité italienne de protection de la vie privée de bloquer ChatGPT ont créé l’alarme.
Dans un premier temps, l’autorité a soulevé les problèmes de collecte de données personnelles sur le Web sans base légale et d’informations fournies par le chatbot contenant des erreurs. Cela aurait pu représenter un défi sérieux pour l’ensemble de l’approche, et le fait qu’il ait été résolu en ajoutant des clauses de non-responsabilité ou en modifiant les termes et conditions pourrait être un aperçu des futures luttes réglementaires.
Nous avons besoin de bonnes lois, pas de catastrophisme. Le paradigme de l’IA a changé il y a longtemps, mais il n’a pas été suivi d’un changement correspondant dans notre législation et notre culture. Ce moment est maintenant venu.
Une conversation importante a commencé sur ce que nous devrions attendre de l’IA, et cela nécessitera l’implication de différents types d’universitaires. Espérons qu’il sera basé sur la réalité technique de ce que nous avons construit, et pourquoi, plutôt que sur des fantasmes de science-fiction ou des scénarios apocalyptiques.