
Meta : Capable d’acheter une puissance de calcul de mille milliards, mais incapable de retenir les talents clés
TechFlow SélectionTechFlow Sélection

Meta : Capable d’acheter une puissance de calcul de mille milliards, mais incapable de retenir les talents clés
La course aux armements en matière d’IA dans la Silicon Valley ne manque jamais d’acheteurs super-riches agitant des chèques, mais elle manque de personnes sachant comment utiliser cette puissance de calcul pour façonner l’avenir.
Rédaction : Ada, TechFlow
Pang Ruoming n’avait pas encore eu le temps de s’asseoir confortablement à son poste chez Meta qu’il en est déjà parti.
En juillet 2025, Mark Zuckerberg a débloqué un package rémunératoire pluriannuel d’une valeur supérieure à 200 millions de dollars pour débaucher cet ingénieur chinois, l’un des plus convoités au monde dans le domaine des infrastructures IA, directement chez Apple. Pang Ruoming a été intégré au laboratoire « Superintelligence » de Meta, chargé de concevoir l’infrastructure sous-jacente aux prochains modèles d’IA.
Sept mois plus tard, OpenAI l’a recruté.
Selon The Information, OpenAI a mené une campagne de recrutement de plusieurs mois auprès de Pang Ruoming. Bien qu’il ait confié à ses collègues « se sentir très bien chez Meta », il a finalement choisi de partir. Bloomberg rapporte que sa rémunération chez Meta était liée à des jalons précis ; un départ anticipé impliquait donc la renonciation à la majeure partie de ses actions non encore libérées.
200 millions de dollars n’ont pas suffi à acheter sept mois de loyauté.
Ce n’est pas simplement une histoire de changement d’employeur.
Le départ d’une personne, le signal d’un groupe entier
Pang Ruoming n’est pas le premier à avoir quitté Meta.
La semaine dernière, Mat Velloso, responsable du produit de la plateforme développeurs au sein du laboratoire « Superintelligence » de Meta, a également annoncé son départ. Ce dernier avait rejoint Meta en juillet 2024 après avoir quitté Google DeepMind, et n’y est resté moins de huit mois. Plus tôt encore, en novembre 2025, Yann LeCun, lauréat du prix Turing et chef scientifique IA de Meta depuis douze ans, a annoncé sa démission pour fonder une startup axée sur le développement d’un « modèle mondial », une vision qu’il défendait depuis longtemps. Russ Salakhutdinov, vice-président de la recherche IA générative chez Meta et ancien élève de Geoffrey Hinton, a lui aussi récemment confirmé son départ.
Pour comprendre la fuite des talents au sein de Meta AI, il faut d’abord saisir à quel point Llama 4 a été désastreuse.
En avril 2025, Meta a lancé avec fracas la série Llama 4, comprenant les modèles Scout et Maverick. Les performances publiées semblaient remarquables : selon les chiffres officiels, ces modèles auraient surpassé GPT-4.5 et Claude Sonnet 3.7 sur des benchmarks clés comme MATH-500 et GPQA Diamond.
Pourtant, ce modèle phare, porteur des ambitions de Meta, s’est rapidement effondré lors des tests indépendants tiers réalisés par la communauté open source. Ses capacités réelles de généralisation et de raisonnement ont montré un écart abyssal par rapport aux résultats annoncés. Face aux vives critiques de la communauté, Yann LeCun, chef scientifique IA de Meta, a finalement admis que l’équipe avait utilisé « différentes versions du modèle pour exécuter différents jeux de tests, afin d’optimiser le score final ».
Dans le monde rigoureux de la recherche académique et de l’ingénierie IA, cette pratique franchit une ligne rouge impardonnable. Autrement dit, l’équipe a entraîné Llama 4 comme un « étudiant rural spécialisé dans les examens », capable uniquement de résoudre des sujets antérieurs, plutôt que comme un « élève brillant » doté d’une intelligence véritablement avancée. Pour les mathématiques, on lui présentait le champion des maths ; pour la programmation, le champion de la programmation. Chaque test isolé semblait impressionnant — mais il ne s’agissait pas du même modèle.
Dans la communauté scientifique IA, cela s’appelle « cherry-picking » (sélection sélective). Dans le système éducatif fondé sur les examens, cela revient à faire passer des « examens à la place d’autrui ».
Pour Meta, qui s’est toujours présentée comme « le phare de l’open source », ce scandale a détruit l’actif le plus précieux de son écosystème développeur : la confiance. La conséquence immédiate en a été une perte totale de confiance de la part de Zuckerberg dans les fondamentaux techniques de son équipe GenAI, déclenchant une vague de nominations externes de cadres dirigeants et de marginalisation des départements clés d’infrastructure.
Zuckerberg a ainsi dépensé entre 14,3 et 15 milliards de dollars pour acquérir 49 % de Scale AI, société spécialisée dans l’étiquetage de données. Il a ensuite nommé Alexandr Wang, PDG de Scale AI âgé de 28 ans, chef de l’IA chez Meta, et créé le laboratoire « Superintelligence » (MSL). Dans cette nouvelle structure, le lauréat du prix Turing Yann LeCun devait désormais rendre compte à ce jeune homme de 28 ans. En octobre, Meta a supprimé environ 600 postes au sein du MSL, y compris des membres du laboratoire FAIR, fondé par LeCun lui-même.
Par ailleurs, le modèle phare Llama 4 Behemoth, initialement prévu pour un lancement estival 2025, a été repoussé à l’automne, puis finalement suspendu indéfiniment.
Meta s’est alors tourné vers le développement de deux nouveaux modèles : « Avocado », un modèle textuel de nouvelle génération, et « Mango », un modèle d’images/vidéos. Selon les informations disponibles, Avocado vise à concurrencer GPT-5 et Gemini 3 Ultra. Initialement prévu pour une livraison d’ici la fin 2025, son déploiement a été reporté au premier trimestre 2026 en raison de performances insuffisantes lors des tests et de difficultés d’optimisation de l’entraînement. Meta envisage même de le sortir en version fermée, rompant ainsi avec la tradition ouverte de la série Llama.
Meta a commis deux erreurs fatales dans le développement de ses modèles IA. Premièrement, la falsification des résultats de benchmark, qui a détruit la confiance de la communauté développeur. Deuxièmement, l’intégration forcée du laboratoire FAIR — une unité de recherche fondamentale nécessitant des décennies de travail patient — au sein d’une organisation orientée vers des objectifs trimestriels. Ces deux décisions combinées constituent la cause fondamentale de la fuite actuelle des talents.
Les puces maison : une autre jambe brisée
Tandis que les talents fuient, les puces rencontrent aussi des problèmes.
Selon The Information, Meta a récemment annulé son projet interne de conception de la puce d’entraînement IA la plus avancée.
Le programme de conception de puces maison de Meta porte le nom de MTIA (Meta Training and Inference Accelerator). Sa feuille de route initiale était ambitieuse : la version MTIA v4, codée « Santa Barbara », suivie de la v5 « Olympus » et de la v6 « Universal Core », devaient être livrées progressivement entre 2026 et 2028. « Olympus » devait notamment être la première puce de Meta basée sur une architecture chiplet en 2 nm, conçue pour couvrir à la fois l’entraînement de modèles haut de gamme et l’inférence en temps réel, remplaçant ainsi progressivement les GPU NVIDIA au sein des clusters d’entraînement de Meta.
Aujourd’hui, ce projet de puce d’entraînement de pointe vient d’être abandonné.
Cela ne signifie pas que Meta n’a réalisé aucun progrès. Sur le front de l’inférence, le MTIA a connu certains succès : la puce d’inférence MTIA v3, codée « Iris », est déjà déployée à grande échelle dans les centres de données de Meta, principalement pour les systèmes de recommandation de Facebook Reels et Instagram, permettant selon les estimations une réduction de 40 à 44 % du coût total de possession. Toutefois, inférence et entraînement sont deux choses radicalement différentes. L’inférence consiste à faire fonctionner un modèle existant ; l’entraînement, à le créer. Meta peut concevoir des puces d’inférence, mais pas des puces d’entraînement capables de rivaliser frontalement avec celles de NVIDIA.
Ce n’est pas la première fois dans l’histoire de Meta. En 2022, celle-ci avait tenté de développer une puce d’inférence maison, mais avait abandonné le projet après un échec lors d’un déploiement à petite échelle, passant aussitôt une commande massive à NVIDIA.
L’échec de la conception de puces maison accélère directement la frénésie d’achats externes de Meta.
Un achat paniqué de 135 milliards de dollars
En janvier 2026, Meta a annoncé un budget de dépenses en capital de 115 à 135 milliards de dollars pour l’année, soit presque le double des 72,2 milliards dépensés l’année précédente. La majeure partie de cette somme sera consacrée à l’acquisition de puces.
En dix jours seulement, trois grosses commandes se sont succédé :
Le 17 février, Meta a signé avec NVIDIA un accord stratégique pluriannuel et transgénérationnel. Meta déploiera « des millions » de GPU Blackwell et de la nouvelle génération Vera Rubin, ainsi que des processeurs CPU autonomes Grace. Selon les analystes, la valeur de cet accord atteindrait plusieurs dizaines de milliards de dollars, faisant de Meta le premier client mondial à déployer massivement les CPU autonomes Grace de NVIDIA.
Le 24 février, Meta a conclu avec AMD un accord pluriannuel évalué entre 60 et 100 milliards de dollars. Meta achètera les derniers GPU de la série MI450 et les processeurs EPYC de sixième génération. Dans le cadre de cet accord, AMD a émis en faveur de Meta des bons de souscription pouvant donner droit à un maximum de 160 millions d’actions ordinaires, représentant environ 10 % du capital d’AMD, à un prix symbolique de 0,01 dollar par action, attribués progressivement selon les jalons de livraison.
Le 26 février, selon The Information, Meta a signé avec Google un accord pluriannuel de plusieurs milliards de dollars pour louer des puces TPU de Google Cloud afin d’entraîner et d’exécuter ses prochains grands modèles linguistiques. Les deux parties discutent également d’un achat direct de puces TPU par Meta, destinées à être installées dans ses propres centres de données dès 2027.
Une entreprise de médias sociaux a passé, en dix jours, trois commandes simultanées auprès de trois fournisseurs de puces, dont le montant cumulé pourrait dépasser cent milliards de dollars.
Il ne s’agit pas ici d’une stratégie de diversification. C’est un achat paniqué.
La triple logique de l’anxiété liée à la puissance de calcul
Pourquoi Meta agit-elle avec tant d’urgence ?
Premièrement, elle ne peut plus compter sur ses puces maison. L’annulation du projet de puce d’entraînement la plus avancée signifie que Meta devra, dans un futur prévisible, se tourner exclusivement vers l’achat externe pour répondre à ses besoins en entraînement IA. Si les puces MTIA d’inférence peuvent gérer des applications matures comme les systèmes de recommandation, l’entraînement d’un modèle avant-gardiste tel qu’Avocado — conçu pour rivaliser avec GPT-5 — exige impérativement du matériel de niveau NVIDIA ou équivalent.
Deuxièmement, les concurrents ne vont pas attendre. OpenAI dispose déjà de ressources massives provenant de Microsoft, de SoftBank et de fonds souverains des Émirats arabes unis. Anthropic a sécurisé l’approvisionnement en 1 million de puces TPU de Google et en 1 million de puces Trainium d’Amazon. Gemini 3 de Google a été entièrement entraîné sur des TPU. Si Meta ne parvient pas à obtenir suffisamment de puissance de calcul, elle risque tout simplement de ne pas pouvoir entrer dans la course.
Troisièmement — et peut-être surtout — Zuckerberg doit compenser son manque de « capacité de recherche » par sa « capacité d’achat ». L’échec retentissant de Llama 4, la fuite des talents clés et les difficultés rencontrées dans la conception de puces maison ont ensemble fragilisé la narration IA de Meta face à Wall Street. Signer aujourd’hui des gros contrats avec NVIDIA, AMD et Google permet au moins de lancer un message clair : « Nous avons de l’argent, nous achetons, nous n’abandonnons pas. »
La stratégie actuelle de Meta consiste donc à compenser l’incapacité à maîtriser les logiciels par une dépense massive en matériel, et à remplacer la perte de talents par l’achat de puces. Mais la course à l’IA n’est pas un jeu qu’on remporte en signant des chèques. La puissance de calcul est une condition nécessaire, non une condition suffisante. Sans une équipe de modélisation de premier plan et une trajectoire technologique claire, même la plus grande quantité de puces ne sera qu’un stock coûteux entreposé dans des entrepôts.
Le dilemme de l’acheteur
En revenant sur les trois transactions de Meta en février, un détail curieux, souvent négligé, mérite attention.
Meta achète chez NVIDIA les GPU Blackwell actuels et les futurs Vera Rubin ; son accord avec AMD porte sur les GPU MI450 et les futurs MI455X ; enfin, elle loue chez Google les TPU Ironwood actuels, avec l’intention d’en acheter directement l’année prochaine.
Trois fournisseurs, trois architectures matérielles totalement distinctes, et trois écosystèmes logiciels différents.
Cela signifie que Meta devra jongler constamment entre trois piles logicielles fondamentales radicalement différentes : CUDA (NVIDIA), ROCm (AMD) et XLA/JAX (Google). Certes, une stratégie multi-fournisseurs permet de diversifier les risques d’approvisionnement et de négocier des prix plus avantageux, mais elle fait exploser la complexité technique à un niveau exponentiel.
Voilà précisément la faiblesse la plus critique de Meta aujourd’hui : faire entraîner efficacement un modèle de mille milliards de paramètres sur trois architectures matérielles reposant sur des modèles de programmation fondamentalement incompatibles exige bien plus que des ingénieurs familiers avec CUDA. Cela requiert des architectes capables de construire, à partir de zéro, des cadres d’entraînement transversaux.
Ce type de profil est extrêmement rare : on estime qu’il n’en existe pas plus de cent dans le monde entier. Pang Ruoming en fait partie.
Dépenser 100 milliards de dollars pour acquérir la combinaison matérielle la plus complexe au monde, tout en perdant précisément les cerveaux capables de la piloter — voilà le tableau le plus paradoxal de ce pari audacieux de Zuckerberg.
Le pari de Zuckerberg
En prenant du recul, on constate que la trajectoire d’investissement de Zuckerberg dans l’IA au cours des dix-huit derniers mois suit un rythme étonnamment similaire à celui de son pari massif sur la réalité virtuelle :
Repérer une tendance, investir massivement, recruter à tour de bras, rencontrer des obstacles, changer radicalement de stratégie, puis réinvestir massivement.
Entre 2021 et 2023, c’était la réalité virtuelle : chaque année, des pertes de plusieurs dizaines de milliards de dollars, entraînant une chute du cours de l’action de 380 à 88 dollars. Entre 2024 et 2026, c’est l’IA : des dépenses sans limites, des restructurations organisationnelles fréquentes, et toujours la même narration : « Faites-moi confiance, j’ai une vision. »
La différence réside dans le fait que, cette fois, la vague IA est bien plus tangible que celle de la réalité virtuelle. Et Meta dispose des moyens financiers nécessaires : son activité publicitaire génère des flux de trésorerie abondants. Au quatrième trimestre 2025, ses revenus ont atteint 59,9 milliards de dollars, en hausse de 24 %.
Le problème, c’est que l’argent peut acheter des puces, de la puissance de calcul, voire des personnes assises à un bureau — mais pas celles qui choisissent d’y rester.
Pang Ruoming a choisi OpenAI, Russ Salakhutdinov a quitté Meta, et Yann LeCun a lancé sa propre startup.
Le pari actuel de Zuckerberg repose sur l’hypothèse que, pourvu qu’il achète suffisamment de puces, construise des centres de données assez vastes et dépense assez d’argent, il parviendra tôt ou tard à trouver ou à former des personnes capables d’exploiter ces ressources.
Ce pari pourrait se révéler gagnant. Meta demeure l’une des entreprises technologiques les plus riches au monde, avec plus de 100 milliards de dollars de flux de trésorerie opérationnelle — sa ligne de défense la plus solide. Meta continue de recruter activement chez OpenAI, Anthropic, Google et d’autres concurrents. Selon Qbit News, près de 40 % des 44 membres de l’équipe « Superintelligence » de Meta proviennent d’OpenAI.
Mais la course à l’IA est impitoyable : les réserves de puissance de calcul, les listes de talents et les performances des modèles sont toutes publiques. L’affaire de falsification des benchmarks de Llama 4 prouve qu’ici, on ne peut pas maintenir sa position de leader grâce à des présentations PowerPoint ou à des campagnes de relations publiques.
Le marché ne reconnaît qu’une seule chose : la qualité de votre modèle.
La place dans la chaîne alimentaire
En 2026, la course aux armements IA a déjà dessiné une hiérarchie relativement claire :
À son sommet figurent OpenAI et Google. OpenAI possède les modèles les plus performants, la base d’utilisateurs la plus vaste et les levées de fonds les plus ambitieuses. Google dispose d’une intégration verticale complète : puces maison, modèles maison et infrastructure cloud maison. Anthropic suit de près, soutenu par la force produit de son modèle Claude et par l’approvisionnement en puissance de calcul fourni à la fois par Google et Amazon, ce qui lui assure une place stable dans le peloton de tête.
Et Meta ? Elle a dépensé le plus, signé le plus de contrats de puces, et procédé aux restructurations organisationnelles les plus fréquentes — mais jusqu’à présent, elle n’a pas encore présenté de modèle avant-gardiste capable de convaincre le marché.
L’histoire IA de Meta rappelle un peu celle de Yahoo en 2005. À l’époque, Yahoo était l’une des entreprises internet les plus riches, dépensant sans compter en acquisitions et en investissements — sans jamais réussir à concevoir un moteur de recherche à la hauteur de celui de Google. L’argent n’est pas tout-puissant. Zuckerberg doit maintenant clarifier ce que Meta entend vraiment faire dans le domaine de l’IA, plutôt que de se contenter d’acheter aveuglément tout ce qui semble « chaud ».
Bien sûr, rédiger l’acte de décès de Meta serait prématuré. Avec 3,58 milliards d’utilisateurs mensuels actifs, 59,9 milliards de dollars de revenus trimestriels et le plus grand ensemble de données sociales au monde, Meta détient des atouts que nul concurrent ne peut reproduire.
Si le modèle « Avocado », dont le lancement est prévu pour 2026, parvient à tenir ses promesses et à retrouver une place dans le peloton de tête, tous les dépassements budgétaires et toutes les restructurations de Zuckerberg seront salués comme autant de « preuves de courage stratégique face à l’adversité ». Mais si une nouvelle fois les résultats déçoivent, les 135 milliards de dollars dépensés ne produiront qu’un lot d’entrepôts remplis de puces silicium, toutes parfaitement alimentées… et toutes parfaitement inutiles.
Après tout, la course aux armements IA de la Silicon Valley ne manque pas d’acheteurs super-riches agitant des chèques. Ce qui lui manque, c’est des personnes sachant transformer cette puissance de calcul en avenir.
Bienvenue dans la communauté officielle TechFlow
Groupe Telegram :https://t.me/TechFlowDaily
Compte Twitter officiel :https://x.com/TechFlowPost
Compte Twitter anglais :https://x.com/BlockFlow_News














