Meta dévoile Llama 4 : une nouvelle génération de modèles d'IA multimodaux

Meta vient de lancer Llama 4, sa nouvelle collection de modèles d'intelligence artificielle qui propulse désormais l'assistant Meta AI sur le web et dans ses applications comme WhatsApp, Messenger et Instagram, y compris en Europe. Cette annonce marque un tournant important dans la stratégie IA de l'entreprise.

Deux nouveaux modèles disponibles immédiatement

Meta introduit deux modèles téléchargeables dès maintenant sur llama.com et Hugging Face :

  • Llama 4 Scout : un modèle compact de 17 milliards de paramètres actifs avec 16 experts, capable de fonctionner sur une seule puce Nvidia H100. Sa particularité ? Une fenêtre de contexte impressionnante de 10 millions de tokens, permettant d'analyser des documents très volumineux. Selon Meta, il surpasse Gemma 3, Gemini 2.0 Flash-Lite et Mistral 3.1 sur de nombreux benchmarks.
  • Llama 4 Maverick : plus puissant avec 17 milliards de paramètres actifs répartis sur 128 experts (pour un total de 400 milliards de paramètres), ce modèle rivalise avec GPT-4o et Gemini 2.0 Flash. Il excelle particulièrement dans la compréhension d'images et la rédaction créative.

Ces deux modèles utilisent pour la première fois une architecture "mixture of experts" (MoE), qui active seulement une fraction des paramètres totaux pour chaque tâche, améliorant considérablement l'efficacité.

Behemoth : le géant en préparation

Meta a également présenté Llama 4 Behemoth, un modèle encore en entraînement avec 288 milliards de paramètres actifs et près de 2 billions de paramètres au total. Mark Zuckerberg le décrit comme "le modèle de base le plus performant au monde", surpassant GPT-4.5 et Claude Sonnet 3.7 sur plusieurs benchmarks STEM.

Un quatrième modèle, Llama 4 Reasoning, devrait être annoncé "dans le mois à venir", probablement lors de la conférence LlamaCon prévue le 29 avril.

Une approche multimodale native

Contrairement aux générations précédentes, les modèles Llama 4 sont nativement multimodaux, capables de traiter simultanément du texte, des images et des vidéos. Meta a également travaillé à réduire les biais politiques et sociaux, affirmant que Llama 4 refuse moins de répondre aux questions controversées (moins de 2% contre 7% pour Llama 3.3).

Cette nouvelle génération de modèles représente une avancée significative pour Meta dans sa compétition avec OpenAI, Google et les autres acteurs majeurs de l'IA générative. Mais, contrairement aux autres, les modèles de Meta sont open-source.

Source

1 réaction

Rtt13 - iPhone

Llama veut dire pourquoi en hébreu

06/04/2025 à 14h36

Donnez votre avis
Vous aimerez peut-être

Suivez-nous avec notre app iSoft
Articles populaires
Les derniers articles