Meta : Peut se permettre des milliards de calculs, mais ne peut retenir les personnes clés

marsbitPublié le 2026-02-28Dernière mise à jour le 2026-02-28

Résumé

Selon un article, Meta (Facebook) fait face à une fuite massive de talents en IA malgré des investissements colossaux. L'ingénieur clé Ruoming Pang, recruté avec un package à 200 millions de dollars, a quitté Meta après seulement 7 mois pour OpenAI. Ce départ s’inscrit dans une tendance plus large : Yann LeCun (scientifique en chef de l'IA), Russ Salakhutdinov et d'autres cadres ont également quitté l'entreprise. La cause fondamentale est une crise de confiance suite au scandale du modèle Llama 4, dont les performances affichées lors de tests benchmarks ont été artificiellement optimisées, érodant la crédibilité de Meta. En réponse, Mark Zuckerberg a restructuré l'équipe, nommé un nouveau chef de l'IA de 28 ans et abandonné le projet de puce d'entraînement IA la plus avancée. Pour compenser ces échecs en R&D, Meta a engagé une frénésie d'achats de puces, commandant pour plus de 135 milliards de dollars de matériel auprès de Nvidia, AMD et Google en l'espace de 10 jours. Cependant, cette stratégie de "tout acheter" est risquée : la gestion de trois écosystèmes matériels différents (CUDA, ROCm, TPU) est extrêmement complexe et nécessite des talents rares qui… quittent justement l'entreprise. La conclusion est que l'argent peut acheter de la puissance de calcul, mais pas la loyauté, la vision ou l'expertise nécessaires pour gagner la course à l'IA. Meta, malgré ses immenses ressources, risque de ne devenir qu'un simple acheteur superpuissant dans la chaîne alimentaire de l'IA...

Rédigé par : Ada, Shenchao TechFlow

Ruoming Pang n’était pas encore bien installé à son poste chez Meta qu’il est déjà parti.

En juillet 2025, Mark Zuckerberg a arraché cet ingénieur chinois, le plus convoité dans le domaine de l'infrastructure IA, des mains d'Apple, avec un package de rémunération pluriannuel d'une valeur totale de plus de 200 millions de dollars. Pang a été affecté au Meta Superintelligence Lab, chargé de construire l'infrastructure de la prochaine génération de modèles d'IA.

Sept mois plus tard, OpenAI l'a débauché.

Selon The Information, OpenAI a mené une campagne de recrutement de plusieurs mois contre Ruoming Pang. Bien que Pang ait dit à ses collègues qu'il était "très heureux de travailler chez Meta", il a finalement choisi de partir. Selon Bloomberg, son package de rémunération chez Meta était lié à des étapes clés, et un départ anticipé signifiait renoncer à la plupart des actions non acquises.

200 millions de dollars, n'achètent pas 7 mois de loyauté.

Ce n'est pas une simple histoire de changement d'emploi.

Le départ d'une personne, un signal pour beaucoup

Pang n'est pas le premier à partir.

La semaine dernière, Mat Velloso, responsable produit de la plateforme des développeurs du Meta Superintelligence Lab, a également annoncé son départ. Cette personne avait quitté Google DeepMind pour rejoindre Meta en juillet dernier, et y est restée moins de 8 mois. Remontant un peu plus loin, en novembre 2025, Yann LeCun, lauréat du prix Turing et scientifique en chef de l'IA chez Meta, après 12 ans dans l'entreprise, a annoncé son départ pour créer sa startup, travaillant sur le "modèle mondial" qu'il ne cesse de vanter. Russ Salakhutdinov, vice-président de la recherche en IA générative chez Meta et disciple de Geoffrey Hinton, a également officialisé son départ récemment.

Pour comprendre la fuite des talents de l'IA chez Meta, il faut d'abord comprendre à quel point Llama 4 a été dommageable.

En avril 2025, Meta a fièrement lancé les modèles Scout et Maverick de la série Llama 4. Les données officielles sur le papier étaient somptueuses, affirmant avoir surpassé GPT-4.5 et Claude Sonnet 3.7 dans des tests de référence (Benchmark) clés comme MATH-500 et GPQA Diamond.

Cependant, ce modèle phare, porteur des ambitions de Meta, a rapidement "montré son vrai visage" lors de tests indépendants en aveugle par la communauté open source, avec un écart abyssal entre ses capacités réelles de généralisation et de raisonnement et sa communication. Face aux vives质疑 de la communauté, Yann LeCun, le scientifique en chef de l'IA, a finalement admis que l'équipe avait "utilisé différentes versions du modèle pour exécuter différents ensembles de tests afin d'optimiser le score final".

Dans le monde rigoureux de l'académie et de l'ingénierie de l'IA, cela franchit une ligne rouge impardonnable. En d'autres termes, l'équipe a entraîné Llama 4 pour en faire un "bourreau des exercices" capable seulement de résoudre des sujets passés, et non un "bon élève" possédant une intelligence de pointe. Pour les maths, on vous sort le champion des maths, pour la programmation, le champion de la programmation, chaque test individuel semble fort, mais en réalité, ce n'est pas le même modèle.

Dans le milieu universitaire de l'IA, cela s'appelle "cueillir les cerises" (cherry-picking), dans le monde de l'éducation examinatoire, cela s'appelle "se faire remplacer à un examen".

Pour Meta, qui s'est toujours présenté comme un "phare de l'open source", cette controverse a directement détruit l'actif le plus précieux de son écosystème de développeurs : la confiance. Sa conséquence directe a été que Zuckerberg a "perdu toute confiance" dans l'intégrité technique de l'équipe GenAI existante, déclenchant une suite de recrutements externes de cadres supérieurs et la mise à l'écart des services d'infrastructure clés.

Il a dépensé 14,3 à 15 milliards de dollars pour acquérir 49% des actions de la société d'annotation de données Scale AI, parachutant Alexandr Wang, le PDG de 28 ans de Scale AI, au poste de directeur de l'IA de Meta, créant le Meta Superintelligence Lab (MSL). Le lauréat du prix Turing, LeCun, devait rendre des comptes à ce jeune homme de 28 ans dans la nouvelle structure. En octobre, Meta a supprimé environ 600 postes au MSL, y compris des membres du département de recherche FAIR créé par LeCun.

Et le modèle phare Llama 4 Behemoth, initialement prévu pour l'été 2025, a été reporté à plusieurs reprises, de l'été à l'automne, pour finalement être mis en suspens indéfiniment.

Meta s'est tourné vers le développement du prochain modèle de texte, nom de code "Avocado", et du modèle image/vidéo, nom de code "Mango". Selon les rapports, l'objectif d'Avocado est de rivaliser avec GPT-5 et Gemini 3 Ultra. Initialement prévu pour fin 2025, il a été reporté au premier trimestre 2026 en raison de performances de test et d'optimisation de l'entraînement insuffisantes. Meta envisage de le publier sous forme fermée, abandonnant la tradition open source de la série Llama.

Meta a commis deux erreurs fatales avec ses modèles d'IA. La première est la falsification des benchmarks, ce qui a directement détruit la confiance de la communauté des développeurs ; la seconde est d'avoir forcé un département de recherche fondamentale comme FAIR, qui nécessite des efforts sur le long terme, dans une organisation produit recherchant des KPI trimestriels. Ces deux choses combinées sont la cause fondamentale de la fuite actuelle des talents.

Les puces maison : L'autre jambe cassée

Les talents s'en vont, et les puces posent aussi problème.

Selon The Information, Meta a annulé la semaine dernière le projet de sa puce d'entraînement IA la plus avancée en développement interne.

Le plan de puces maison de Meta s'appelle MTIA (Meta Training and Inference Accelerator). La feuille de route initiale de l'entreprise était ambitieuse : les MTIA v4 (nom de code "Santa Barbara"), v5 ("Olympus") et v6 ("Universal Core") devaient être livrées entre 2026 et 2028. Olympus était conçue comme la première puce de Meta basée sur une architecture chiplet 2nm, visant à couvrir à la fois l'entraînement de modèles haut de gamme et l'inférence en temps réel, pour finalement remplacer le rôle de Nvidia dans les clusters d'entraînement de Meta.

Maintenant, cette puce d'entraînement la plus avancée est annulée.

Meta n'a pas fait que des erreurs, le MTIA a obtenu quelques résultats côté inférence. La puce d'inférence MTIA v3, nom de code "Iris", est déjà déployée à grande échelle dans les data centers de Meta, principalement pour les systèmes de recommandation de Facebook Reels et Instagram, réduisant据说 de 40% à 44% le coût total de possession. Mais l'inférence et l'entraînement sont deux choses différentes. L'inférence, c'est exécuter le modèle, l'entraînement, c'est le former. Meta peut fabriquer ses propres puces d'inférence, mais pas de puces d'entraînement capables de rivaliser frontalement avec Nvidia.

Ce n'est pas la première fois dans l'histoire. En 2022, Meta avait tenté de développer sa propre puce d'inférence, et après un échec lors d'un déploiement à petite échelle, elle avait purement abandonné, passant une grosse commande à Nvidia.

Les difficultés des puces maison ont directement accéléré la frénésie d'achats externes de Meta.

Des achats de panique de 135 milliards de dollars

En janvier 2026, Meta a annoncé un budget de dépenses en capital de 115 à 135 milliards de dollars pour cette année, presque le double des 72,2 milliards de dollars de l'année dernière. La majeure partie de cet argent sera dépensée en puces.

En l'espace de 10 jours, trois grosses commandes ont été passées :

Le 17 février, Meta a signé un accord stratégique pluriannuel et multi-générationnel avec Nvidia. Meta déploiera "des millions" de GPU Nvidia Blackwell et de la nouvelle génération Vera Rubin, plus des CPU indépendants Grace. Les analystes estiment l'ampleur de la transaction à plusieurs milliards de dollars, faisant de Meta le premier client supercalculateur à déployer massivement les CPU indépendants Grace de Nvidia.

Le 24 février, Meta a signé un accord de plusieurs années sur les puces d'une valeur de 60 à 100 milliards de dollars avec AMD. Meta achètera les derniers GPU de la série MI450 d'AMD et les CPU EPYC de sixième génération. Dans le cadre de l'accord, AMD a émis à Meta des warrants pour un maximum de 160 millions d'actions ordinaires, représentant environ 10% des actions d'AMD, à un prix de 0,01 dollar par action, attribués par lots selon les étapes de livraison.

Le 26 février, selon The Information, Meta a signé un accord pluriannuel de plusieurs milliards de dollars avec Google, louant des puces TPU de Google Cloud pour entraîner et exécuter sa prochaine génération de grands modèles de langage. Parallèlement, les deux parties discutent également de l'achat direct par Meta de TPU à partir de 2027 pour les déployer dans ses propres data centers.

Une entreprise de médias sociaux, passant des commandes potentiellement totalisant plus de mille milliards de dollars à trois fournisseurs de puces en l'espace de 10 jours.

Ce n'est pas une diversification. Ce sont des achats de panique.

Les trois logiques de l'anxiété computationnelle

Pourquoi Meta est-il si pressé ?

Premièrement, on ne peut plus compter sur les puces maison. L'annulation du projet de puce d'entraînement la plus avancée signifie que Meta, dans un avenir prévisible, ne pourra compter que sur des achats externes pour répondre à ses besoins en entraînement IA. Les puces MTIA côté inférence peuvent traiter des activités matures comme les systèmes de recommandation, mais pour entraîner un modèle de pointe comme Avocado, conçu pour rivaliser avec GPT-5, il faut utiliser du matériel Nvidia ou de niveau équivalent.

Deuxièmement, les concurrents n'attendront pas. OpenAI a déjà obtenu des ressources massives, de Microsoft et SoftBank au fonds souverain des Émirats arabes unis. Anthropic a verrouillé l'approvisionnement de 1 million de puces TPU et Trainium chacune de la part de Google et Amazon. Google Gemini 3 a été entièrement entraîné sur TPU. Si Meta n'obtient pas suffisamment de puissance de calcul, il ne pourra même pas conserver son billet d'entrée dans la course.

Troisièmement, et peut-être plus fondamentalement, Zuckerberg a besoin d'utiliser le "pouvoir d'achat" pour compenser l'insuffisance de la "capacité de R&D". Le fiasco de Llama 4, la fuite des talents clés et les difficultés des puces maison, ces trois événements combinés, ont rendu le récit de l'IA de Meta fragile face à Wall Street. Signer maintenant de grosses commandes auprès de Nvidia, AMD et Google envoie au moins un signal : nous avons de l'argent, nous achetons, nous n'abandonnons pas.

La stratégie actuelle de Meta est la suivante : si on ne peut pas maîtriser le logiciel, on investit dans le matériel, si on ne peut pas retenir les gens, on achète des puces. Mais la course à l'IA n'est pas un jeu que l'on peut gagner simplement en signant des chèques. La puissance de calcul est une condition nécessaire, pas suffisante. Sans une équipe de modélisation de premier ordre et une feuille de route technique claire, même les puces les plus nombreuses ne seront que du stock coûteux dans un entrepôt.

Le dilemme de l'acheteur

En regardant les trois transactions de Meta en février, un détail intéressant a été ignoré par la plupart.

Meta achète à Nvidia le Blackwell actuel et le futur Vera Rubin ; la transaction avec AMD porte sur le MI450 et le futur MI455X ; la location auprès de Google concerne les TPU Ironwood actuels, avec un plan d'achat direct l'année prochaine.

Trois fournisseurs, trois architectures matérielles et écosystèmes logiciels complètement différents.

Cela signifie que Meta devra naviguer entre trois écosystèmes sous-jacents radicalement différents : CUDA de Nvidia, ROCm d'AMD et XLA/JAX de Google. Une stratégie multi-fournisseurs peut certes disperser le risque de la chaîne d'approvisionnement et réduire la prime d'achat du matériel, mais elle entraînera une complexité technique qui augmente de façon exponentielle.

C'est précisément le point faible le plus mortel de Meta actuellement. Pour qu'un modèle de billions de paramètres puisse être entraîné efficacement sur ces trois matériaux aux modèles de programmation sous-jacents complètement différents, il ne faut pas seulement des ingénieurs qui comprennent CUDA, mais des architectes capables de construire from scratch un framework d'entraînement multiplateforme.

Il n'y a probablement pas plus de 100 personnes de ce genre dans le monde. Ruoming Pang en faisait partie.

Dépenser 1000 milliards de dollars pour acquérir la combinaison matérielle la plus complexe au monde, tout en perdant les cerveaux capables de maîtriser ce matériel, c'est l'image la plus surréaliste de ce pari audacieux de Zuckerberg.

Le pari de Zuckerberg

En prenant un peu de recul, la trajectoire opérationnelle de Zuckerberg en matière d'IA au cours des 18 derniers mois est étonnamment similaire à son rythme lors de son engagement total (All In) dans le métavers :

Voir la tendance, investir lourdement, recruter massivement, rencontrer des obstacles, changer brusquement de stratégie, réinvestir lourdement.

2021 à 2023, c'était le métavers, résultat : des pertes annuelles de dizaines de milliards, et finalement le cours de l'action est passé de 380 dollars à 88 dollars. 2024 à 2026, c'est l'IA, même investissement à tout prix, réorganisations fréquentes, même narration "croyez-moi, j'ai une vision".

La différence est que cette fois, le vent de l'IA est bien plus tangible que celui du métavers. Et Meta a l'argent pour brûler, son activité publicitaire génère un flux de trésorerie abondant. Au quatrième trimestre 2025, Meta a réalisé un chiffre d'affaires de 59,9 milliards de dollars, en hausse de 24% sur un an.

Le problème est le suivant : l'argent peut acheter des puces, de la puissance de calcul, même des gens assis à leur poste de travail, mais il ne peut pas acheter les gens qui restent.

Pang a choisi OpenAI, Russ Salakhutdinov a choisi de partir, LeCun a choisi de créer sa startup.

Le pari actuel de Zuckerberg est qu'en achetant suffisamment de puces, en construisant suffisamment de data centers, en dépensant suffisamment d'argent, il finira par trouver ou former des personnes capables d'utiliser ces ressources.

Ce pari pourrait tenir. Meta est après tout l'une des entreprises technologiques les plus riches au monde, avec un flux de trésorerie opérationnel de plus de 100 milliards de dollars constituant sa plus solide barrière. D'OpenAI à Anthropic, de Google à d'autres concurrents, Meta continue de débaucher. Selon un reportage de Quantum Bit, sur les 44 membres de l'équipe Superintelligence de Meta, près de 40% viennent d'OpenAI.

Mais la dureté de la course à l'IA réside dans le fait que les réserves de calcul, la liste des talents, les performances des modèles sont publiques. L'affaire de falsification des benchmarks de Llama 4 prouve que dans cette industrie, on ne pouvez pas maintenir une avance avec des PowerPoint et des relations publiques.

Le marché ne reconnaît finalement qu'une seule chose : votre modèle est-il assez bon ?

La position dans la chaîne alimentaire

Alors que la course aux armements de l'IA entre en 2026, le classement de la chaîne alimentaire est déjà relativement clair :

Au sommet se trouvent OpenAI et Google. OpenAI a les modèles les plus puissants, la plus grande base d'utilisateurs et le financement le plus agressif. Google a une intégration verticale complète : puces maison, modèles maison et infrastructure cloud maison. Anthropic suit de près, s'appuyant sur la qualité produit de son modèle Claude et l'approvisionnement double en puissance de calcul de Google et Amazon, se maintenant solidement dans le peloton de tête.

Meta ? Elle a dépensé le plus d'argent, signé le plus de contrats de puces, procédé aux réorganisations les plus fréquentes, mais jusqu'à présent, n'a pas sorti un modèle de pointe capable de convaincre le marché.

L'histoire de l'IA de Meta ressemble un peu à celle de Yahoo en 2005. À l'époque, Yahoo était aussi l'une des entreprises Internet les plus riches, qui achetait et investissait frénétiquement, mais était incapable de créer un moteur de recherche comme celui de Google. L'argent n'est pas tout-puissant. Zuckerberg doit clarifier ce que Meta veut vraiment faire dans l'IA, au lieu d'acheter tout ce qui est à la mode.

Bien sûr, il est encore trop tôt pour écrire l'éloge funèbre de Meta. 3,58 milliards d'utilisateurs actifs mensuels, 59,9 milliards de dollars de chiffre d'affaires trimestriel, le plus grand ensemble de données sociales au monde,这些都是任何竞争对手都难以复制的资产 (ces actifs sont difficiles à reproduire pour tout concurrent).

Si le prochain modèle, nom de code Avocado, peut être livré en 2026 comme prévu et revenir dans le peloton de tête, tous les investissements et réorganisations de Zuckerberg seront présentés comme une "audace stratégique qui a renversé la situation". Mais si les performances sont à nouveau insuffisantes, alors ces 135 milliards de dollars n'auront servi qu'à construire des entrepôts de plaquettes de silicium chauffées à l'électricité.

Après tout, la course aux armements de l'IA dans la Silicon Valley ne manque pas d'acheteurs superpuissants brandissant des chèques. Ce qui manque, ce sont les personnes qui savent comment utiliser cette puissance de calcul pour forger l'avenir.

Questions liées

QPourquoi l'ingénieur clé Pang Ruoming a-t-il quitté Meta après seulement 7 mois, malgré un package de rémunération de 200 millions de dollars ?

APang Ruoming a quitté Meta pour rejoindre OpenAI après une campagne de recrutement de plusieurs mois, bien qu'il ait initialement déclaré être « très heureux » chez Meta. Son départ anticipé lui a fait renoncer à la majorité des actions non acquises de son package de rémunération lié à des étapes clés.

QQuel événement majeur a déclenché une perte de confiance dans l'équipe IA de Meta et conduit à une restructuration ?

ALa publication du modèle Llama 4 en avril 2025 a déclenché la crise. Meta a admis avoir utilisé différentes versions du modèle pour optimiser artificiellement les scores de référence (« benchmark»), ce qui a été perçu comme une tromperie et a détruit la confiance de la communauté des développeurs, conduisant à une restructuration massive.

QQuel a été le revers important pour Meta dans le développement de ses puces IA internes ?

AMeta a abandonné le développement de sa puce d'entraînement IA la plus avancée, faisant partie de la feuille de route MTIA (Meta Training and Inference Accelerator). Bien que leurs puces d'inférence aient connu un certain succès, elles n'ont pas pu rivaliser avec les solutions de Nvidia pour l'entraînement de modèles de pointe.

QQuelle raison Meta a-t-elle engagé des dépenses d'investissement massives (1350 milliards de dollars) en février 2026 ?

AMeta a procédé à ces « achats de panique » pour trois raisons principales : l'échec de ses puces d'entraînement internes, la nécessité de suivre le rythme des concurrents comme OpenAI et Google, et le besoin de compenser ses lacunes en matière de R&D et de rassurer Wall Street en affichant son pouvoir d'achat en matière de calcul.

QQuel est le principal défi ou paradoxe auquel Meta est confronté avec sa stratégie d'achat de puces ?

ALe principal défi est que Meta accumule des architectures matérielles complexes et incompatibles (Nvidia CUDA, AMD ROCm, Google XLA/JAX) tout en perdant les ingénieurs et architectes de talent rares, comme Pang Ruoming, qui possèdent l'expertise nécessaire pour faire fonctionner efficacement des modèles d'IA de pointe sur ces différentes plates-formes.

Lectures associées

Trading

Spot
Futures

Articles tendance

Comment acheter PEOPLE

Bienvenue sur HTX.com ! Nous vous permettons d'acheter ConstitutionDAO (PEOPLE) de manière simple et pratique. Suivez notre guide étape par étape pour commencer votre parcours crypto.Étape 1 : Création de votre compte HTXUtilisez votre adresse e-mail ou votre numéro de téléphone pour ouvrir un compte sur HTX gratuitement. L'inscription se fait en toute simplicité et débloque toutes les fonctionnalités.Créer mon compteÉtape 2 : Choix du mode de paiement (rubrique Acheter des cryptosCarte de crédit/débit : utilisez votre carte Visa ou Mastercard pour acheter instantanément ConstitutionDAO (PEOPLE).Solde :utilisez les fonds du solde de votre compte HTX pour trader en toute simplicité.Prestataire tiers :pour accroître la commodité d'utilisation, nous avons ajouté des modes de paiement populaires tels que Google Pay et Apple Pay.P2P :tradez directement avec d'autres utilisateurs sur HTX.OTC (de gré à gré) : nous offrons des services personnalisés et des taux de change compétitifs aux traders.Étape 3 : stockage de vos ConstitutionDAO (PEOPLE)Après avoir acheté vos ConstitutionDAO (PEOPLE), stockez-les sur votre compte HTX. Vous pouvez également les envoyer ailleurs via un transfert sur la blockchain ou les utiliser pour trader d'autres cryptos.Étape 4 : tradez des ConstitutionDAO (PEOPLE)Tradez facilement ConstitutionDAO (PEOPLE) sur le marché Spot de HTX. Il vous suffit d'accéder à votre compte, de sélectionner la paire de trading, d'exécuter vos trades et de les suivre en temps réel. Nous offrons une expérience conviviale aux débutants comme aux traders chevronnés.

507 vues totalesPublié le 2024.12.12Mis à jour le 2025.03.21

Comment acheter PEOPLE

Discussions

Bienvenue dans la Communauté HTX. Ici, vous pouvez vous tenir informé(e) des derniers développements de la plateforme et accéder à des analyses de marché professionnelles. Les opinions des utilisateurs sur le prix de PEOPLE (PEOPLE) sont présentées ci-dessous.

活动图片