Yann LeCun AI

Yann LeCun : l’IA ne menacera jamais les humains

Une réglementation « prématurée » de l’IA ne servira qu’à renforcer la domination des grandes entreprises technologiques et à étouffer la concurrence. C’est ce qu’il pense Yann LeCun, le scientifique en chef de l’IA de Meta. « Réguler la recherche et le développement en IA est incroyablement contre-productif », a déclaré LeCun, l’un des principaux chercheurs mondiaux en IA, au Financial Times avant la conférence britannique de Bletchley Park sur la sécurité de l’IA organisée par le gouvernement britannique en novembre.

Les modèles open source stimulent la concurrence

L’appel à contrôler l’IA découle du « complexe de supériorité » de certaines grandes entreprises technologiques qui affirment qu’on peut faire confiance à elles seules pour développer l’IA en toute sécurité, affirme LeCun. «Je pense que c’est incroyablement arrogant. Je pense exactement le contraire », a-t-il déclaré. Réguler aujourd’hui les modèles d’IA de pointe équivaudrait à réglementer l’industrie des avions à réaction en 1925, lorsque ces avions n’avaient pas encore été inventés. « Le débat sur le risque existentiel est très prématuré jusqu’à ce que nous ayons une conception d’un système capable de rivaliser avec un chat en termes de capacité d’apprentissage, ce que nous n’avons pas actuellement », a-t-il déclaré.

Meta, qui a lancé son propre modèle d’IA générative LLaMA, a rompu les rangs avec d’autres grandes entreprises technologiques, telles que Google et OpenAI, soutenu par Microsoft, en soutenant des systèmes d’IA open source plus accessibles. Le dernier modèle GPT-4 d’OpenAI est ce qu’on appelle une boîte noire dans laquelle les données et le code utilisés pour construire le modèle ne sont pas accessibles à des tiers. LeCun a fait valoir que les modèles open source stimulent la concurrence et permettent à un plus grand nombre de personnes de créer et d’utiliser des systèmes d’IA. Mais les critiques craignent que le fait de confier de puissants modèles d’IA générative à des acteurs potentiellement malveillants n’augmente les risques de désinformation, de cyberguerre et de bioterrorisme à l’échelle industrielle.

Des arguments similaires sur la nécessité de contrôler une technologie en évolution rapide, a déclaré LeCun, avaient été avancés dans les premiers jours de l’Internet, mais cette technologie n’avait prospéré que parce qu’elle restait une plate-forme ouverte et décentralisée. « La même chose se produira avec l’IA », a-t-il déclaré.

Qui est Yann LeCun

LeCun est l’un des principaux chercheurs mondiaux dans le domaine des réseaux neuronaux profonds, qui sous-tendent les dernières avancées en matière d’IA générative. En 2018, il a remporté le prix Turing en informatique avec Geoffrey Hinton et Yoshua Bengio. Mais après l’émergence de puissants modèles d’IA générative, tels que ChatGPT, Hinton et Bengio ont exprimé leur inquiétude quant aux dangers posés par les modèles d’IA de nouvelle génération. Tous deux ont appelé à un ralentissement du développement de modèles de pointe et ont mis en garde contre les risques existentiels possibles de l’IA. Toutefois, LeCun a qualifié d’« absurde » l’idée selon laquelle l’IA pourrait tuer l’humanité, que ce soit par conception ou par défaut. Les gens ont été conditionnés par la science-fiction et le scénario Terminator à croire que les machines intelligentes prendraient le relais si elles devenaient plus intelligentes que les humains.

« L’intelligence n’a rien à voir avec le désir de dominer. Ce n’est même pas vrai pour les humains », a-t-il déclaré. « S’il était vrai que les êtres humains les plus intelligents veulent dominer les autres, alors Albert Einstein et d’autres scientifiques auraient été à la fois riches et puissants, alors qu’eux ne l’étaient ni l’un ni l’autre. »

Le robot androïde Sofia s'exprimant lors d'une conférence à Moscou

Un jour, les machines seront plus intelligentes que les humains

LeCun estime que la génération actuelle de modèles d’IA n’est pas aussi performante que le prétendent certains chercheurs. « Ils ne comprennent pas comment fonctionne le monde. Je ne peux pas planifier. Je ne suis pas capable de raisonner réellement », a-t-il déclaré. « Nous ne disposons pas de voitures entièrement autonomes et autonomes, capables de s’entraîner à conduire en 20 heures environ, ce qu’un jeune de 17 ans peut faire », a-t-il déclaré. Le chercheur Meta a déclaré qu’OpenAI et Google DeepMind ont été « systématiquement trop optimistes » quant à la complexité du problème et que plusieurs « avancées conceptuelles » sont encore nécessaires avant que les systèmes d’IA n’approchent l’intelligence humaine. Mais même dans ce cas, ils pourraient être contrôlés en encodant le « caractère moral » dans ces systèmes, de la même manière que les gens élaborent des lois pour régir le comportement humain.

LeCun a reconnu que les machines seront un jour plus intelligentes que les humains dans la plupart des industries, mais ils susciteront une seconde renaissance de l’apprentissage. Selon LeCun, de puissants systèmes d’intelligence artificielle pourraient aider l’humanité à relever des défis majeurs, tels que la lutte contre le changement climatique et la guérison des maladies. « Il ne fait aucun doute que nous aurons des machines qui nous assisteront et qui seront plus intelligentes que nous. La question est : est-ce effrayant ou excitant ? Je pense que c’est passionnant parce que ces machines répondront à nos attentes », a-t-il déclaré. « Ils seront sous notre contrôle. » Meta a déjà intégré l’IA dans nombre de ses services, notamment la sûreté, la sécurité et la modération de contenu, et à l’avenir, elle sera intégrée plus profondément dans les applications de réalité augmentée et virtuelle de l’entreprise, a déclaré LeCun. À terme, tout le monde aura accès à des assistants IA qui nous aideront à gérer notre quotidien. « L’interaction de chacun avec le monde numérique sera médiatisée par des systèmes d’intelligence artificielle. En d’autres termes, nous n’utiliserons plus les moteurs de recherche », a-t-il déclaré.