Musk et des experts appellent à l’arrêt des « expériences géantes d’IA »
Le magnat milliardaire Elon Musk et une série d’experts ont appelé mercredi à une pause dans le développement de puissants systèmes d’intelligence artificielle (IA) pour laisser le temps de s’assurer qu’ils sont sûrs.
Une lettre ouverte, signée par plus de 1 000 personnes à ce jour, dont Steve Wozniak, co-fondateur de Musk et d’Apple, a été suscitée par la publication de GPT-4 par la société OpenAI de San Francisco.
La société affirme que son dernier modèle est beaucoup plus puissant que la version précédente, qui était utilisée pour alimenter ChatGPT, un bot capable de générer des fragments de texte à partir des invites les plus brèves.
« Les systèmes d’IA dotés d’une intelligence humaine compétitive peuvent poser de graves risques pour la société et l’humanité », indique la lettre ouverte intitulée « Pause Giant AI Experiments ».
« Des systèmes d’IA puissants ne devraient être développés qu’une fois que nous sommes convaincus que leurs effets seront positifs et que leurs risques seront gérables », a-t-il déclaré.
Musk était un investisseur initial dans OpenAI, a passé des années à son conseil d’administration, et sa société automobile Tesla développe des systèmes d’IA pour aider à alimenter sa technologie de conduite autonome, entre autres applications.
La lettre, hébergée par le Future of Life Institute financé par Musk, a été signée par des critiques éminents ainsi que des concurrents d’OpenAI comme le chef de Stability AI, Emad Mostaque.
« Digne de confiance et fidèle »
La lettre citait un blog écrit par le fondateur d’OpenAI, Sam Altman, qui suggérait qu' »à un moment donné, il pourrait être important d’obtenir un examen indépendant avant de commencer à former de futurs systèmes ».
« Nous sommes d’accord. Ce point est maintenant », ont écrit les auteurs de la lettre ouverte.
« Par conséquent, nous appelons tous les laboratoires d’IA à suspendre immédiatement pendant au moins 6 mois la formation des systèmes d’IA plus puissants que GPT-4. »
Ils ont appelé les gouvernements à intervenir et à imposer un moratoire si les entreprises ne parvenaient pas à s’entendre.
Les six mois devraient être utilisés pour développer des protocoles de sécurité, des systèmes de gouvernance de l’IA et recentrer la recherche sur la garantie que les systèmes d’IA sont plus précis, sûrs, « dignes de confiance et loyaux ».
La lettre ne détaillait pas les dangers révélés par le GPT-4.
Mais des chercheurs, dont Gary Marcus de l’Université de New York, qui a signé la lettre, soutiennent depuis longtemps que les chatbots sont de grands menteurs et ont le potentiel d’être des super-diffuseurs de désinformation.
Cependant, l’auteur Cory Doctorow a comparé l’industrie de l’IA à un système de « pompage et vidage », affirmant que le potentiel et la menace des systèmes d’IA ont été massivement surmédiatisés.