Meta vient de lancer le plus grand modèle d'IA « ouvert » de l'histoire : voici pourquoi c'est important
Dans le monde de l'intelligence artificielle (IA), une bataille fait rage. D'un côté, on trouve des entreprises qui croient en la nécessité de préserver la confidentialité des données et des algorithmes qui sous-tendent leurs logiciels avancés. De l'autre, on trouve des entreprises qui croient en la nécessité de permettre au public de voir ce qui se cache sous le capot de leurs modèles d'IA sophistiqués.
Considérez cela comme la bataille entre l’IA open source et l’IA fermée.
Ces dernières semaines, Meta, la société mère de Facebook, a pris une grande initiative en faveur de l'IA open source en publiant une nouvelle collection de grands modèles d'IA. Parmi ceux-ci figure un modèle appelé Llama 3.1 405B, que le fondateur et directeur général de Meta, Mark Zuckerberg, décrit comme « le premier modèle d'IA open source de niveau frontière ».
Pour tous ceux qui se soucient d’un avenir dans lequel chacun pourra accéder aux avantages de l’IA, c’est une bonne nouvelle.
Le danger de l’IA à code source fermé et la promesse de l’IA à code source ouvert
L'IA à code source fermé fait référence à des modèles, des ensembles de données et des algorithmes qui sont propriétaires et confidentiels. Citons par exemple ChatGPT, Gemini de Google et Claude d'Anthropic.
Même si tout le monde peut utiliser ces produits, il n’existe aucun moyen de savoir quel ensemble de données et quels codes sources ont été utilisés pour créer le modèle ou l’outil d’IA.
Si cette solution constitue un excellent moyen pour les entreprises de protéger leur propriété intellectuelle et leurs profits, elle risque également de saper la confiance et la responsabilité du public. Rendre la technologie d’IA en source fermée ralentit également l’innovation et rend une entreprise ou d’autres utilisateurs dépendants d’une seule plateforme pour leurs besoins en IA. En effet, la plateforme propriétaire du modèle contrôle les modifications, les licences et les mises à jour.
Il existe un certain nombre de cadres éthiques qui visent à améliorer l’équité, la responsabilité, la transparence, la confidentialité et la surveillance humaine de l’IA. Cependant, ces principes ne sont souvent pas pleinement respectés dans le cas de l’IA à code source fermé en raison du manque inhérent de transparence et de responsabilité externe associé aux systèmes propriétaires.
Dans le cas de ChatGPT, sa société mère, OpenAI, ne divulgue ni l'ensemble de données ni le code de ses derniers outils d'IA au public. Il est donc impossible pour les régulateurs de les auditer. Et même si l'accès au service est gratuit, des inquiétudes subsistent quant à la manière dont les données des utilisateurs sont stockées et utilisées pour réentraîner les modèles.
En revanche, le code et l’ensemble de données derrière les modèles d’IA open source sont accessibles à tous.
Cela favorise un développement rapide grâce à la collaboration communautaire et permet l’implication de petites organisations et même d’individus dans le développement de l’IA. Cela fait également une énorme différence pour les petites et moyennes entreprises, car le coût de formation de grands modèles d’IA est colossal.
Peut-être plus important encore, l’IA open source permet d’examiner et d’identifier les biais et les vulnérabilités potentiels.
Cependant, l’IA open source crée de nouveaux risques et préoccupations éthiques.
Par exemple, le contrôle qualité des produits open source est généralement faible. Les pirates informatiques ayant accès au code et aux données, les modèles sont également plus vulnérables aux cyberattaques et peuvent être adaptés et personnalisés à des fins malveillantes, par exemple en recyclant le modèle avec des données provenant du dark web.
Un pionnier de l'IA open source
Parmi les principales entreprises d’IA, Meta s’est imposée comme une pionnière de l’IA open source. Avec sa nouvelle suite de modèles d’IA, elle accomplit ce qu’OpenAI avait promis de faire lors de son lancement en décembre 2015, à savoir faire progresser l’intelligence numérique « de la manière la plus susceptible de bénéficier à l’humanité dans son ensemble », comme l’avait déclaré OpenAI à l’époque.
Llama 3.1 405B est le plus grand modèle d'IA open source de l'histoire. Il s'agit de ce que l'on appelle un grand modèle de langage, capable de générer du texte en langage humain dans plusieurs langues. Il peut être téléchargé en ligne, mais en raison de sa taille énorme, les utilisateurs auront besoin d'un matériel puissant pour l'exécuter.
Bien qu'il ne surpasse pas les autres modèles sur toutes les mesures, Llama 3.1 405B est considéré comme très compétitif et fonctionne mieux que les modèles de langage commerciaux et à code source fermé existants dans certaines tâches, telles que les tâches de raisonnement et de codage.
Mais le nouveau modèle n'est pas entièrement ouvert, car Meta n'a pas publié l'énorme ensemble de données utilisé pour l'entraîner. Il s'agit d'un élément « ouvert » important qui manque actuellement.
Néanmoins, Llama de Meta égalise les règles du jeu pour les chercheurs, les petites organisations et les startups, car il peut être exploité sans les immenses ressources nécessaires pour former de grands modèles linguistiques à partir de zéro.
Façonner l’avenir de l’IA
Pour garantir la démocratisation de l’IA, nous avons besoin de trois piliers essentiels :
- Gouvernance : cadres réglementaires et éthiques pour garantir que la technologie de l’IA est développée et utilisée de manière responsable et éthique.
- Accessibilité : des ressources informatiques abordables et des outils conviviaux pour garantir un paysage équitable aux développeurs et aux utilisateurs.
- Ouverture : les ensembles de données et les algorithmes utilisés pour former et créer des outils d’IA doivent être open source pour garantir la transparence.
La réalisation de ces trois piliers est une responsabilité partagée entre les pouvoirs publics, l’industrie, le monde universitaire et le grand public. Le grand public peut jouer un rôle essentiel en défendant des politiques éthiques en matière d’IA, en se tenant informé des évolutions de l’IA, en utilisant l’IA de manière responsable et en soutenant les initiatives d’IA open source.
Mais plusieurs questions demeurent au sujet de l’IA open source. Comment concilier protection de la propriété intellectuelle et promotion de l’innovation grâce à l’IA open source ? Comment minimiser les préoccupations éthiques autour de l’IA open source ? Comment protéger l’IA open source contre d’éventuelles utilisations abusives ?
En répondant correctement à ces questions, nous pourrons créer un avenir dans lequel l’IA sera un outil inclusif pour tous. Saurons-nous relever le défi et veiller à ce que l’IA serve le bien commun ? Ou la laisserons-nous devenir un nouvel outil d’exclusion et de contrôle ? L’avenir est entre nos mains.