Pourquoi Llama 3.1 de Meta est une aubaine pour les entreprises et un fléau pour les autres fournisseurs LLM
Meta a déclaré avoir collaboré avec des sociétés comme Accenture, AWSAMD, Anyscale, Cloudflare, Briques de données, DellDeloitte, Fireworks.ai, Google Cloud, Groqvisage câlin, IBM WatsonxInfosys, Intel, Kaggle, Microsoft Azure, Nvidia DGX CloudOctoAI, Oracle Cloud, PwC, Replicate, Sarvam AI, Scale.AI, SNCF, Snowflake, Together AI et le projet UC Berkeley vLLM pour rendre la famille de modèles Llama 3.1 disponible et plus simple à utiliser.
Alors que les fournisseurs de services cloud tels qu’AWS et Oracle fourniront les derniers modèles, des partenaires tels que Groq, Dell et Nvidia permettront aux développeurs d’utiliser des techniques de génération de données synthétiques et de génération augmentée de récupération avancée (RAG), a déclaré Meta, ajoutant que Groq a optimisé inférence à faible latence pour les déploiements cloud et que Dell a réalisé des optimisations similaires pour les systèmes sur site.
D’autres grands modèles, tels que Claude, Gemini et GPT-4o, sont également servis via des API.