Les scientifiques mettent en garde contre les dangers de l’IA mais ne s’entendent pas sur les solutions
Les informaticiens qui ont contribué à jeter les bases de la technologie d’intelligence artificielle actuelle mettent en garde contre ses dangers, mais cela ne signifie pas qu’ils sont d’accord sur la nature de ces dangers ou sur la manière de les prévenir.
La survie de l’humanité est menacée lorsque « des choses intelligentes peuvent nous déjouer », a déclaré le soi-disant parrain de l’IA Geoffrey Hinton lors d’une conférence mercredi au Massachusetts Institute of Technology.
« Cela peut nous garder pendant un certain temps pour faire fonctionner les centrales électriques », a déclaré Hinton. « Mais après ça, peut-être pas. »
Après avoir pris sa retraite de Google pour pouvoir parler plus librement, Hinton, âgé de 75 ans, a déclaré qu’il avait récemment changé d’avis sur les capacités de raisonnement des systèmes informatiques sur lesquels il avait passé sa vie à faire des recherches.
« Ces choses auront appris de nous, en lisant tous les romans qui ont jamais existé et tout ce que Machiavel a jamais écrit, comment manipuler les gens », a déclaré Hinton, s’adressant à la foule assistant à la conférence EmTech Digital du MIT Technology Review depuis son domicile par vidéo. « Même s’ils ne peuvent pas tirer directement sur les leviers, ils peuvent certainement nous amener à tirer sur les leviers. »
« J’aimerais avoir une solution simple et agréable que je pourrais pousser, mais ce n’est pas le cas », a-t-il ajouté. « Je ne suis pas sûr qu’il y ait une solution. »
Yoshua Bengio, pionnier de l’IA, co-lauréat avec Hinton du plus grand prix d’informatique, a déclaré mercredi à l’Associated Press qu’il était « à peu près aligné » sur les préoccupations de Hinton suscitées par les chatbots tels que ChatGPT et la technologie connexe, mais s’inquiète que simplement dire « nous sommes condamnés » ne va pas aider.
« La principale différence, je dirais, c’est qu’il est plutôt pessimiste, et je suis plus optimiste », a déclaré Bengio, professeur à l’Université de Montréal. « Je pense que les dangers – ceux à court terme, ceux à long terme – sont très sérieux et doivent être pris au sérieux non seulement par quelques chercheurs, mais aussi par les gouvernements et la population. »
De nombreux signes montrent que les gouvernements sont à l’écoute. La Maison Blanche a appelé les PDG de Google, Microsoft et OpenAI, fabricant de ChatGPT, à rencontrer jeudi le vice-président Kamala Harris dans le cadre de ce que les responsables décrivent comme une discussion franche sur la manière d’atténuer les risques à court et à long terme de leur technologie. Les législateurs européens accélèrent également les négociations pour adopter de nouvelles règles radicales en matière d’IA.
Mais tous les discours sur les dangers futurs les plus graves inquiètent certains que le battage médiatique autour des machines surhumaines – qui n’existent pas encore – détourne l’attention des tentatives de mettre en place des garanties pratiques sur les produits d’IA actuels qui ne sont en grande partie pas réglementés.
Margaret Mitchell, ancienne dirigeante de l’équipe d’éthique de l’IA de Google, a déclaré qu’elle était contrariée que Hinton ne se soit pas prononcé pendant sa décennie en position de pouvoir chez Google, en particulier après l’éviction en 2020 de l’éminent scientifique noir Timnit Gebru, qui avait étudié les méfaits de grands modèles de langage avant qu’ils ne soient largement commercialisés dans des produits tels que ChatGPT et Google’s Bard.
« C’est un privilège qu’il puisse sauter des réalités de la propagation de la discrimination maintenant, de la propagation du langage haineux, de la toxicité et de la pornographie non consensuelle des femmes, tous ces problèmes qui nuisent activement aux personnes marginalisées dans la technologie », a déclaré Mitchell, qui a également été contraint de quitter Google à la suite du départ de Gebru. « Il saute toutes ces choses pour s’inquiéter de quelque chose de plus lointain. »
Bengio, Hinton et un troisième chercheur, Yann LeCun, qui travaille chez Meta, la société mère de Facebook, ont tous reçu le prix Turing en 2019 pour leurs percées dans le domaine des réseaux de neurones artificiels, essentiels au développement des applications d’IA d’aujourd’hui telles que ChatGPT.
Bengio, le seul des trois à n’avoir pas accepté d’emploi chez un géant de la technologie, s’inquiète depuis des années des risques à court terme de l’IA, notamment la déstabilisation du marché du travail, l’armement automatisé et les dangers d’ensembles de données biaisés.
Mais ces préoccupations ont récemment augmenté, ce qui a conduit Bengio à rejoindre d’autres informaticiens et chefs d’entreprise technologiques comme Elon Musk et le co-fondateur d’Apple, Steve Wozniak, pour demander une pause de six mois sur le développement de systèmes d’IA plus puissants que le dernier modèle d’OpenAI, GPT-4. .
Bengio a déclaré mercredi qu’il pensait que les derniers modèles de langage d’IA réussissaient déjà le « test de Turing », nommé d’après la méthode du briseur de code britannique et pionnier de l’IA, Alan Turing, introduite en 1950 pour mesurer quand l’IA devient indiscernable d’un humain, du moins en surface.
« C’est une étape importante qui peut avoir des conséquences dramatiques si nous ne faisons pas attention », a déclaré Bengio. « Ma principale préoccupation est de savoir comment ils peuvent être exploités à des fins néfastes pour déstabiliser les démocraties, pour des cyberattaques, de la désinformation. Vous pouvez avoir une conversation avec ces systèmes et penser que vous interagissez avec un humain. Ils sont difficiles à repérer. »
Là où les chercheurs sont moins susceptibles d’être d’accord, c’est sur la façon dont les systèmes de langage d’IA actuels – qui ont de nombreuses limites, y compris une tendance à fabriquer des informations – deviendront en fait plus intelligents que les humains, non seulement en mémorisant d’énormes quantités d’informations, mais en montrant des capacités de raisonnement plus approfondies.
Aidan Gomez était l’un des co-auteurs de l’article pionnier de 2017 qui a introduit une technique dite de transformateur – le « T » à la fin de ChatGPT – pour améliorer les performances des systèmes d’apprentissage automatique, en particulier dans la façon dont ils apprennent à partir de passages du texte. Alors qu’il n’était alors qu’un stagiaire de 20 ans chez Google, Gomez se souvient d’être allongé sur un canapé au siège social de l’entreprise en Californie lorsque son équipe a envoyé le journal vers 3 heures du matin, heure prévue.
« Aidan, ça va être tellement énorme », se souvient-il qu’un collègue lui a dit, du travail qui a depuis aidé à mener à de nouveaux systèmes qui peuvent générer une prose et des images humaines.
Six ans plus tard et maintenant PDG de sa propre société d’intelligence artificielle appelée Cohere, dans laquelle Hinton a investi, Gomez est enthousiasmé par les applications potentielles de ces systèmes, mais gêné par la peur, il dit qu’il est « détaché de la réalité » de leurs véritables capacités et « s’appuie sur des sauts extraordinaires d’imagination et de raisonnement. »
« L’idée que ces modèles vont d’une manière ou d’une autre accéder à nos armes nucléaires et lancer une sorte d’événement au niveau de l’extinction n’est pas un discours productif à avoir », a déclaré Gomez. « Cela nuit à ces véritables efforts politiques pragmatiques qui tentent de faire quelque chose de bien. »
Interrogé mercredi sur ses investissements dans Cohere à la lumière de ses préoccupations plus larges concernant l’IA, Hinton a déclaré qu’il n’avait pas l’intention de retirer ses investissements car il existe encore de nombreuses applications utiles des modèles de langage en médecine et ailleurs. Il a également déclaré qu’il n’avait pris aucune mauvaise décision en poursuivant les recherches qu’il avait commencées dans les années 1970.
« Jusqu’à très récemment, je pensais que cette crise existentielle était loin », a déclaré Hinton. « Donc je n’ai pas vraiment de regrets sur ce que j’ai fait. »