L'intelligence artificielle ne représente pas une menace existentielle pour l'humanité, selon une nouvelle étude
ChatGPT et d'autres grands modèles linguistiques (LLM) ne peuvent pas apprendre de manière indépendante ni acquérir de nouvelles compétences, ce qui signifie qu'ils ne représentent aucune menace existentielle pour l'humanité, selon une nouvelle recherche de l'Université de Bath et de l'Université technique de Darmstadt en Allemagne.
L’étude, publiée aujourd’hui dans le cadre des actes de la 62e réunion annuelle de l’Association for Computational Linguistics (ACL 2024) – la principale conférence internationale sur le traitement du langage naturel – révèle que les titulaires d’un LLM ont une capacité superficielle à suivre des instructions et à exceller dans la maîtrise de la langue, mais qu’ils n’ont aucun potentiel pour maîtriser de nouvelles compétences sans instruction explicite. Cela signifie qu’ils restent intrinsèquement contrôlables, prévisibles et sûrs.
L’équipe de recherche a conclu que les LLM, qui sont formés sur des ensembles de données de plus en plus volumineux, peuvent continuer à être déployés sans problèmes de sécurité, même si la technologie peut toujours être utilisée à mauvais escient.
Avec la croissance, ces modèles sont susceptibles de générer un langage plus sophistiqué et de mieux suivre des invites explicites et détaillées, mais il est très peu probable qu’ils acquièrent des compétences de raisonnement complexes.
« Le discours dominant selon lequel ce type d’IA est une menace pour l’humanité empêche l’adoption et le développement généralisés de ces technologies, et détourne également l’attention des véritables problèmes qui nécessitent notre attention », a déclaré le Dr Harish Tayyar Madabushi, informaticien à l’Université de Bath et co-auteur de la nouvelle étude sur les « capacités émergentes » des LLM.
L'équipe de recherche collaborative, dirigée par le professeur Iryna Gurevych de l'Université technique de Darmstadt en Allemagne, a mené des expériences pour tester la capacité des LLM à accomplir des tâches que les modèles n'ont jamais rencontrées auparavant – les soi-disant capacités émergentes.
À titre d’exemple, les LLM peuvent répondre à des questions sur des situations sociales sans avoir jamais été explicitement formés ou programmés pour le faire. Alors que des recherches antérieures suggéraient que cela était le résultat de modèles « connaissant » les situations sociales, les chercheurs ont montré qu’il s’agissait en fait du résultat de modèles utilisant une capacité bien connue des LLM à accomplir des tâches basées sur quelques exemples qui leur sont présentés, connue sous le nom d’« apprentissage en contexte » (ICL).
Au travers de milliers d’expériences, l’équipe a démontré qu’une combinaison de la capacité des LLM à suivre des instructions (ICL), de la mémoire et des compétences linguistiques peut expliquer à la fois les capacités et les limites des LLM.
Le Dr Tayyar Madabushi a déclaré : « Nous craignons qu'à mesure que les modèles deviennent de plus en plus grands, ils soient capables de résoudre de nouveaux problèmes que nous ne pouvons pas prévoir actuellement, ce qui pose le risque que ces modèles plus grands acquièrent des capacités dangereuses, notamment le raisonnement et la planification.
« Cela a suscité de nombreuses discussions, par exemple lors du AI Safety Summit l'année dernière à Bletchley Park, pour lequel on nous a demandé notre avis, mais notre étude montre que la crainte qu'un modèle disparaisse et fasse quelque chose de complètement inattendu, innovant et potentiellement dangereux n'est pas valable.
« Les inquiétudes concernant la menace existentielle posée par les LLM ne se limitent pas aux non-experts et ont été exprimées par certains des meilleurs chercheurs en IA du monde entier. »
Cependant, le Dr Madabushi maintient que cette crainte est infondée puisque les tests des chercheurs ont clairement démontré l'absence de capacités émergentes de raisonnement complexe dans les LLM.
« Bien qu’il soit important de s’attaquer au potentiel existant d’utilisation abusive de l’IA, comme la création de fausses nouvelles et le risque accru de fraude, il serait prématuré d’adopter des réglementations fondées sur des menaces existentielles perçues », a-t-il déclaré.
« Ce qui est important, c'est que cela signifie pour les utilisateurs finaux que se fier aux LLM pour interpréter et exécuter des tâches complexes qui nécessitent un raisonnement complexe sans instructions explicites est probablement une erreur. Au lieu de cela, les utilisateurs ont probablement intérêt à spécifier explicitement ce qu'ils attendent des modèles et à fournir des exemples lorsque cela est possible pour toutes les tâches, sauf les plus simples. »
Le professeur Gurevych a ajouté : « Nos résultats ne signifient pas que l’IA ne constitue pas une menace. Au contraire, nous montrons que l’émergence supposée de compétences de réflexion complexes associées à des menaces spécifiques n’est pas étayée par des preuves et que nous pouvons très bien contrôler le processus d’apprentissage des LLM. Les recherches futures devraient donc se concentrer sur d’autres risques posés par les modèles, comme leur potentiel à être utilisés pour générer de fausses nouvelles. »