Geoffrey Hinton était déjà pessimiste à l’égard de l’IA avant de remporter le prix Nobel. Maintenant, c'est encore plus le cas
Geoffrey Hinton, considéré comme l'un des « parrains de l'IA », a été l'un des récents prix Nobel 2024. Cette récompense n'a en rien modifié son discours sur cette discipline. En fait, dans l’une des premières interviews qu’il a accordées après avoir reçu le prix Nobel, Hinton met une fois de plus en garde contre la menace existentielle que représente pour lui l’IA. Celui qui viendra encore plus qu’il ne le pensait il n’y a pas si longtemps.
Menace existentielle dans 20 ans ou moins. Geoffrey Hinton a déjà exprimé son opinion sur les risques auxquels nous sommes confrontés avec l'intelligence artificielle, mais avec le temps, il considère cette « menace existentielle » comme encore plus pressante. Il n'y a pas si longtemps encore, il croyait lui-même que le risque était très loin, que la menace ne se présenterait pas avant 100 ans, peut-être 50 ans, et que nous aurions donc le temps d'y faire face. « Je pense maintenant qu'il est fort probable qu'à un moment donné au cours des 20 prochaines années, les IA deviendront plus intelligentes que nous et nous devons vraiment nous inquiéter de ce qui se passera ensuite. » C'est un message similaire à celui que Hinton avait déjà donné en mai dans une autre interview à la BBC.
Nous devons garder le contrôle. Hinton explique dans l'interview (minute 21:35) combien de ressources supplémentaires devraient être consacrées pour garantir que les êtres humains gardent le contrôle sur le développement et le fonctionnement de l'intelligence artificielle. Or, explique-t-il, les gouvernements n’ont pas les ressources pour cela : ce sont les grandes entreprises qui en ont.
Un tiers de la puissance de calcul, pas des revenus. Mais aussi, souligne-t-il, ce qu’il faudrait ici serait de ne pas consacrer un pourcentage des revenus. Pour lui, cela peut être très déroutant et trompeur en raison de la manière dont les entreprises publient ces revenus. Au lieu de cela, ils devraient consacrer un pourcentage de leur puissance de calcul.
Un GPU sur quatre devrait se concentrer sur les risques. Pour lui, ce pourcentage devrait être de 33 % : un tiers des ressources informatiques d'entreprises comme Microsoft, Google, Amazon ou Meta devraient être consacrés précisément à la recherche sur la manière d'empêcher l'IA de devenir une menace pour l'être humain. Cependant, il se contenterait ne serait-ce que d'un quart (25 %) de ces ressources.
Il a quitté Google et évangélise désormais sur les risques de l'IA. Hinton était l’un des grands promoteurs de l’apprentissage automatique. Son travail est à la base de nombreuses avancées clés pour le développement actuel de l’IA, et il a travaillé pendant un certain temps dans cette division chez Google. Pourtant, au printemps 2023, peu après l’explosion de l’IA générative, Hinton quitte Google pour alerter sur les dangers de l’intelligence artificielle « libre ».
D'autres experts comme LeCun critiquent cette vision pessimiste. Yann LeCun, responsable de l'IA chez Meta et autre grande voix dans ce domaine, a une vision très différente de ce qui nous attend. Dans une récente interview accordée au Wall Street Journal, LeCun a indiqué que les messages comme ceux lancés par Hinton sont « ridicules ». Pour lui, l’IA a beaucoup de potentiel, mais aujourd’hui, l’IA générative est fondamentalement stupide et ce type de systèmes ne pourra pas rivaliser avec l’intelligence humaine.
Images | Conférence sur les collisions sur Flickr
À Simseo | L'IA générative semble stagner, mais Suleyman est clair sur le fait que nous sommes dans la première « phase » : il en reste deux