Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Sommaire
Le développement des modèles de langage de grande envergure chez Meta, comme Llama, ne cesse de croître en demande de puissance de calcul. La société anticipe déjà que Llama 4 nécessitera dix fois plus de puissance de calcul que son prédécesseur, Llama 3. Mark Zuckerberg, le fondateur et PDG de Meta, a souligné l’importance cruciale de construire cette capacité de calcul pour ne pas se laisser distancer par les concurrents. Malgré les besoins croissants en ressources informatiques, cette approche proactive vise à éviter tout retard potentiel dans le lancement de nouveaux projets d’inférence.
En effet, la récente sortie de Llama 3.1, comportant 405 milliards de paramètres, marque un jalon important pour la technologie de Meta. Ce modèle, le plus grand en source ouverte de la société, signale une croissance continue de la taille des modèles et, par conséquent, un besoin constant d’investissement dans l’infrastructure de calcul pour l’entraînement des futurs modèles d’IA.
La directrice financière de Meta, Susan Li, a mis en lumière la priorité stratégique de l’entreprise en matière de projets de centres de données et d’expansion de la capacité pour l’entraînement des futurs modèles d’IA. Cette orientation stratégique devrait entraîner une augmentation significative des dépenses d’investissement d’ici 2025. Les coûts substantiels associés à l’entraînement de ces modèles de langage se reflètent déjà dans l’augmentation de près de 33% des dépenses d’investissement de Meta au deuxième trimestre 2024. Le financement des serveurs, centres de données et infrastructures réseau sont les principaux facteurs de cette croissance des dépenses.
En comparaison, OpenAI fait face à des coûts considérables pour l’entraînement de ses propres modèles. La société dépense environ 3 milliards de dollars pour l’entraînement des modèles et un montant supplémentaire de 4 milliards de dollars pour louer des serveurs auprès de Microsoft à un tarif préférentiel.
Meta n’a pas seulement l’intention d’augmenter sa capacité d’entraînement pour ses modèles de base IA générative, mais aussi de maintenir une flexibilité dans l’utilisation de cette infrastructure à des fins diverses. Cela inclut l’inférence en IA générative ou des tâches fondamentales comme le classement et la recommandation.
Une illustration tangible de cette capacité accrue se trouve dans l’utilisation significative de Meta AI par les consommateurs en Inde, particulièrement à travers ses services de chatbot. Toutefois, la société ne prévoit pas que les produits d’IA générative contribueront en grande partie aux revenus dans un avenir proche.
Pendant l’appel de résultats de Meta, l’accent a également été mis sur l’importance stratégique d’investir dans l’infrastructure afin de soutenir le développement et l’entraînement de modèles d’IA avancés. Cette discussion reflète l’engagement de l’entreprise à rester compétitive dans le paysage en évolution rapide de l’IA.
En résumé, Meta se trouve à un tournant crucial où l’investissement massif dans l’infrastructure informatique pourrait bien déterminer sa position future dans le domaine de l’IA. Tandis que la promesse de modèles plus puissants comme Llama 4 laisse envisager des avancées révolutionnaires, elle pose également la question des ressources nécessaires pour les réaliser. À mesure que les exigences techniques se multiplient, Meta devra équilibrer innovation et investissement pour ne pas se retrouver à la traîne dans la course effrénée à l’IA.