- ← Retour aux ressources
- /Llama 3 : L'IA Open Source a-t-elle Enfin Rattrapé ChatGPT ?
Llama 3 : L'IA Open Source a-t-elle Enfin Rattrapé ChatGPT ?
Meta a publié Llama 3 le 18 avril 2024—modèles 8B et 70B entraînés sur 15 trillions de tokens, rivalisant avec les performances classe GPT-4.
Le 18 avril 2024, Meta a publié Llama 3—et finalement, l'IA open source a égalé les modèles fermés sur les principaux benchmarks.
Le modèle 70B concurrençait directement les performances classe GPT-4. Le modèle 8B surpassait les modèles 13B+ précédents. L'open source avait rattrapé.
Ce qui Était Nouveau
Données d'entraînement : 15 trillions de tokens (7x plus que Llama 2) Tailles de modèle : 8B et 70B paramètres initialement Performance : Bat Gemini Pro, rivalise avec GPT-4 sur beaucoup de tâches Multilingue : Meilleures performances non-anglais Contexte 8K : 4x plus long que Llama 2
Plus : un modèle 400B était teasé pour sortie ultérieure.
Les Résultats des Benchmarks
Llama 3 70B égalait ou battait :
- GPT-3.5 sur toute la ligne
- Gemini Pro sur la plupart des tâches
- Claude Sonnet sur plusieurs benchmarks
Pour l'open source, c'était sans précédent.
L'Impact
Développeurs : Pouvaient maintenant exécuter des modèles classe GPT-4 localement Entreprises : Pas de vendor lock-in, contrôle total Startups : Construire des produits sans coûts API Chercheurs : Faire progresser l'IA sans gatekeepers corporate
L'open source était finalement compétitif sur la capacité, pas seulement le coût.
Où en Sont-Ils Maintenant ?
Llama 3.1 (juillet 2024) a apporté le modèle 405B, rivalisant véritablement avec les meilleurs modèles fermés. Llama est devenu la fondation de l'écosystème IA open source.
Le 18 avril 2024 a été le moment où l'IA open source a cessé d'être « bon pour de l'open source » et est devenue « véritablement compétitive avec n'importe quoi ».