Meta Llama 4 Scout et Maverick, nouveaux modèles open source
Mâge a officiellement annoncé le lancement des premiers modèles de la série Lama 4marquant le début d’une nouvelle ère pour l’intelligence artificielle multimodale native. Les modèles Llama 4 Scout et Llama 4 Maverick Ils promettent des expériences plus personnalisées et des performances plus élevées, ouvrant la voie à de nouvelles opportunités pour les développeurs, les entreprises et les utilisateurs finaux.
LLAMA 4 SCOUT: EXTRÊME EFFICATION dans un seul GPU
Llama 4 Scout Il s’agit d’un modèle de 17 milliards de paramètres actifs avec 16 experts, conçus pour être le meilleur modèle multimodal de sa catégorie. Il peut être effectué sur un seul GPU NVIDIA H100 grâce à une architecture compacte et efficace. Avec un secteur token de 10 millions du secteur, les scouts dépassent les modèles tels que Gemma 3, Gemini 2.0 Flash-Lite et Mistral 3.1 Dans une référence largement reconnue.

Llama 4 Maverick: Excellent rapport performance-performance
À côté de Scout, Meta présente Llama 4 Maverickégalement avec 17 milliards de paramètres actifs mais avec 128 experts. Maverick Beats GPT-4O et Gemini 2.0 Flash, offrant un excellent rapport performance-performance. Avec une évaluation ELO de 1417 sur LmanaMaverick s’affirme comme le modèle idéal pour les cas d’utilisation du chat, l’assistance virtuelle et la compréhension multimodale.


Géant: le géant de 2 billions de paramètres
À l’appui de cette nouvelle génération, Meta se développe Llama 4 Behemoth: un modèle avec 288 milliards de paramètres actifs et presque Deux mille milliards de paramètres totaux. Pas encore terminé, Behemoth promet des performances plus élevées que GPT-4.5, Claude Sonnet 3.7 Et Gemini 2.0 Pro dans la tige de référence et sera le « professeur » qui formera les futurs modèles de lama.


Llama 4, une nouvelle architecture pour une meilleure IA
LLAMA 4 présente une architecture au «mélange d’experts» (MOE), dans laquelle seule une partie des paramètres est activée pour chaque jeton, améliorant l’efficacité à la fois dans la formation et l’inférence. L’intégration native des méthodes textuelles et visuelles permet à Scout et au Maverick de gérer le texte, les images et les vidéos en un seul flux.
La nouvelle technique de formation, appelée Métapil vous permet de définir automatiquement les paramètres clés tels que le taux d’apprentissage Leayer, ce qui rend Llama 4 extrêmement adaptable et plus performant sur plus de 200 langues.


Par exemple, les modèles LLAMA 4 Maverick ont des paramètres actifs 17B et des paramètres totaux 400B. Pour assurer l’efficacité de l’inférence, la méta utilise alternativement des couches denses et mixtes d’experts (MOE). Les couches MOE utilisent 128 experts non apparentés et un expert partagé. Chaque jeton est envoyé à l’extérieur pour être partagé et également à l’un des 128 experts ravis. Par conséquent, bien que tous les paramètres soient stockés, seul un sous-ensemble des paramètres totaux est activé pendant le fonctionnement de ces modèles. Cela améliore l’efficacité de l’inférence en réduisant les coûts et la latence du service des modèles. LAMA 4 Maverick peut être effectué sur un seul hôte NVIDIA H100 DGX pour une implémentation facile, ou avec une inférence distribuée pour une efficacité maximale.
Post-entraînement: la clé du succès
La post-entraînement des modèles Llama 4 a été révolutionnée avec un pipeline de lumière basé sur Le réglage final supervisé, l’apprentissage du renforcement en ligne et l’optimisation des préférences. Grâce à un système de filtrage dynamique d’adaptation rapide et continue, les modèles ont considérablement amélioré les compétences de raisonnement, de codage et de compréhension multimodale.
Sécurité et biais sous contrôle
Meta a intégré des stratégies avancées d’atténuation des risques dans chaque phase du développement de Llama 4. Des outils tels que Garde lame Et Garde rapide Ils aident à protéger les entrées et les sorties, tandis que la plate-forme Cybersecval Soutient l’évaluation des risques de sécurité. De plus, Llama 4 montre des améliorations significatives dans la gestion des préjugés politiques et sociaux, répondant plus équilibré que la génération précédente.
Behemoth: Le défi de la formation à grande échelle
La formation du modèle du géant a demandé une révision complète des infrastructures d’apprentissage par renforcement, permettant une évolutivité sans précédent. Grâce à une nouvelle infrastructure RL asynchrone, Meta a réussi à obtenir une amélioration de l’efficacité de dix fois par rapport aux générations précédentes.
Conclusions
Avec la disponibilité immédiate de Llama 4 Scout et Maverick sur llama.com et en étreignant la face, destination réaffirme son engagement envers l’open source. Les développeurs peuvent intégrer des modèles dans leurs applications ou essayer la destination sur WhatsApp, Messenger, Instagram Direct et Meta.ai.
Le voyage de Llama 4 n’est qu’au début: Le 29 avril, pendant Llamacon, de nouvelles visions et opportunités seront révélées pour la plus intelligente, accessible et personnelle.