
Introduction à l’IPO de Cerebras : valorisation de 48,8 milliards de dollars — bulle spéculative ou nouveau souverain face à NVIDIA ?
TechFlow SélectionTechFlow Sélection

Introduction à l’IPO de Cerebras : valorisation de 48,8 milliards de dollars — bulle spéculative ou nouveau souverain face à NVIDIA ?
Cette introduction en bourse de CBRS est, en tant qu’événement, le fait marquant le plus attendu du capital-risque dans le domaine du matériel IA en 2026.
Rédaction : Xiao Hei, TechFlow
Cotation fixée le 13 mai, début des négociations en bourse le 14 mai sur le Nasdaq sous le code CBRS.
Il s’agit de la plus importante introduction en bourse (IPO) mondiale à ce jour en 2026. Le syndicat bancaire est composé de Morgan Stanley, Citigroup, Barclays et UBS. Lors de la tournée de présentation (roadshow), cette équipe a suscité une souscription excédentaire de 20 fois, faisant grimper le prix d’émission initial (115–125 dollars) à une fourchette finale de 150–160 dollars. La levée de fonds devrait atteindre 4,8 milliards de dollars, correspondant à une valorisation de 48,8 milliards de dollars.
Il y a tout juste trois mois, la valorisation secondaire de Cerebras s’élevait encore à 23 milliards de dollars. Autrement dit, au cours des derniers mois précédant l’IPO, la valeur comptable de l’entreprise a plus que doublé.
L’argument commercial du dossier a déjà été répété mille fois : challenger de NVIDIA, puce « wafer-scale », vitesse d’inférence supérieure de 21 fois à celle de la B200, contrat de puissance de calcul conclu avec OpenAI pour un montant minimum de 1 milliard de dollars pouvant atteindre jusqu’à 20 milliards de dollars. Il s’agit d’un scénario parfait de « challenger de l’IA » : récit technologique, récit géopolitique, client vedette, commande colossale — chaque élément s’inscrit précisément dans la grande tendance dominante de l’infrastructure IA en 2026.
Pourtant, une lecture page par page du document S-1 révèle une étrange contradiction : tous les reportages publics racontent une même histoire, tandis que le prospectus en raconte une autre.
Les trois paradoxes
En décomposant point par point le prospectus, on découvre que Cerebras constitue un actif façonné par « trois paradoxes ».
Premier paradoxe : techniquement un vrai alpha, financièrement une illusion comptable.
Le prospectus indique un chiffre d’affaires de 510 millions de dollars en 2025, soit une croissance de 76 %, et un bénéfice net selon les principes comptables généralement reconnus (GAAP) de 237,8 millions de dollars. Cela semble remarquable : une société matérielle spécialisée dans l’IA, en forte croissance et déjà rentable, apparaît presque comme une « légende » dans le contexte actuel des valorisations. CoreWeave, qui a fait son entrée en bourse en mars 2026, était encore déficitaire ; Cerebras affiche quant à elle une marge nette de 47 %.
Cependant, ces 237,8 millions de dollars de « bénéfice net » incluent 363,3 millions de dollars provenant d’un ajustement comptable unique et non monétaire lié à G42 — l’annulation d’une obligation contractuelle à terme (« forward contract liability extinguishment ») — générant ainsi un gain comptable virtuel. Une fois cet élément éliminé, et après réintégration des 49,8 millions de dollars liés aux incitations actions, le résultat net ajusté (non-GAAP) réel de Cerebras s’établit à une perte de 75,7 millions de dollars en 2025, soit une détérioration de 247 % par rapport à la perte de 21,8 millions de dollars enregistrée en 2024.
Ainsi, le marché voit un « jeune prodige de l’IPO » présenté comme rentable et en croissance de 76 %, tandis que le prospectus révèle une entreprise en forte croissance mais dont les pertes s’aggravent continuellement. Aucune des deux versions n’est fausse en soi : la différence réside simplement dans celle que le marché choisit de croire.
Deuxième paradoxe : apparemment libérée de G42, en réalité enfermée dans une boucle circulaire avec OpenAI.
L’échec de la première tentative d’IPO de Cerebras en 2024 ne souffre pas d’ambiguïté : G42, client aux racines émiraties, avait généré 85 % des revenus du premier semestre, déclenchant une enquête du Comité d’investissement étranger (CFIUS) et forçant la société à retirer sa demande.
Un an et demi plus tard, la liste des clients semble désormais diversifiée, avec l’ajout de poids lourds tels qu’OpenAI et AWS. Pourtant, le document S-1 daté de mai 2026 révèle la structure client suivante pour 2025 :
- MBZUAI (Université Mohammed Bin Zayed pour l’intelligence artificielle) : 62 %
- G42 : 24 %
- Total combiné : 86 %
G42 n’a pas disparu : il a simplement transféré une partie de son poids à MBZUAI, université située aux Émirats arabes unis et liée à G42. Ce seul client représente à lui seul 77,9 % des créances de Cerebras.
Quant à la ligne « rédemptrice » d’OpenAI, elle constitue en réalité une structure imbriquée. Ce contrat, évalué à plus de 20 milliards de dollars, implique un engagement d’achat de puissance de calcul de 750 mégawatts par OpenAI. Mais le même document précise également plusieurs éléments clés : OpenAI a accordé à Cerebras un prêt de 1 milliard de dollars ; OpenAI a reçu 33 millions de bons de souscription (warrants) quasi gratuits ; enfin, l’accord-cadre global (Master Relationship Agreement) entre les deux parties contient une clause d’exclusivité limitant les ventes de Cerebras à certains « concurrents expressément désignés ».
Autrement dit, OpenAI est simultanément client, prêteur, futur actionnaire et, dans une certaine mesure, contrôleur stratégique de Cerebras. Un analyste anonyme, cité dans une analyse publiée sur Medium, a formulé une phrase percutante : « Lorsque les revenus sont cycliques, la valorisation est cyclique, et l’IPO vise uniquement à permettre aux acteurs ayant généré ces revenus de réaliser leurs gains, ce n’est plus un marché, c’est de l’ingénierie financière. »
La formulation peut sembler trop tranchée, mais sur le plan factuel, cette déclaration est difficile à réfuter.
Troisième paradoxe : apparemment un « challenger » de NVIDIA, en réalité un « complément spécialisé » de NVIDIA.
Ce point est le plus facile à négliger pour le marché.
La technologie de Cerebras est effectivement solide. Le WSE-3 intègre 4 billions de transistors, 900 000 cœurs IA et 44 Go de mémoire SRAM intégrée sur puce, transformant toute une plaquette de silicium en une seule puce, évitant ainsi tous les goulots d’étranglement liés aux communications inter-puces inhérents aux clusters GPU. Selon les benchmarks indépendants d’Artificial Analysis, lors de l’inférence du modèle Llama 4 Maverick (400 milliards de paramètres), le système CS-3 produit plus de 2 500 tokens par seconde et par utilisateur, contre environ 1 000 tokens pour le système phare DGX B200 de NVIDIA, 549 pour Groq et 794 pour SambaNova.
Les chiffres ne mentent pas : sur le scénario spécifique de l’inférence, Cerebras détient bel et bien un avantage générationnel face aux GPU.
Mais le mot-clé ici est « inférence ». Le prospectus de Cerebras lui-même le précise clairement : l’entreprise excelle particulièrement dans les charges de travail d’inférence sensibles à la latence. En revanche, elle ne cherche ni à concurrencer NVIDIA, ni n’en possède la capacité, dans les domaines de l’entraînement de grands modèles ou du calcul généraliste. L’écosystème CUDA, lancé en 2007, a accumulé près de 20 ans d’expérience : chaînes d’outils pour l’entraînement des modèles, communautés de développeurs, bibliothèques tierces — tout cela demeure solidement ancré dans la « zone de sécurité » de NVIDIA.
Plus important encore, le marché ne reste pas immobile. À la conférence GTC 2026, NVIDIA a présenté son architecture Vera Rubin, dotée de 336 milliards de transistors et annoncée comme offrant des performances cinq fois supérieures à celles de Blackwell. AMD a déjà rattrapé ce niveau avec sa puce MI400 (320 milliards de transistors). Google (TPU v6), Amazon (Trainium 3) et Microsoft (Maia 2) développent toutes des puces propriétaires à très grande échelle. En 2025, les dépenses de recherche et développement (R&D) de NVIDIA ont dépassé 18 milliards de dollars ; en décembre dernier, la société a acquis pour 20 milliards de dollars les actifs de la start-up spécialisée dans l’inférence Groq, puis investi 4 milliards de dollars supplémentaires en mars dans deux sociétés travaillant sur les technologies photoniques.
Une description plus exacte serait donc la suivante : Cerebras ne cherche pas à remplacer NVIDIA, mais plutôt à conquérir une position différenciée au sein de la niche étroite de l’« inférence » où opère NVIDIA. Il s’agit là d’un vrai business — mais une valorisation de 48,8 milliards de dollars pour un chiffre d’affaires de 510 millions de dollars implique un ratio cours/chiffre d’affaires (P/S) de 95.
La troisième « vente de produit » d’Andrew Feldman
Au-delà des chiffres, il convient de présenter la figure centrale de cette entreprise.
Andrew Feldman est un « entrepreneur en série » sous-estimé de la Silicon Valley. Il n’est ni un fondateur génie technique, ni issu du monde académique. Diplômé de la Stanford Graduate School of Business, il a occupé le poste de vice-président marketing chez Riverstone Networks (introduite en bourse en 2001), puis celui de vice-président produit chez Force10 Networks (rachetée par Dell en 2011 pour 800 millions de dollars).
En 2007, il fonde SeaMicro avec Gary Lauterbach, une société spécialisée dans les « serveurs à haute efficacité énergétique », utilisant des processeurs à faible consommation dotés de nombreux petits cœurs, assemblés en cluster afin de rivaliser avec les serveurs traditionnels à gros cœurs et forte consommation. Cette idée était très novatrice, mais prématurée. En 2012, AMD acquiert SeaMicro pour 334 millions de dollars ; Feldman rejoint alors AMD en tant que vice-président pendant deux ans avant de quitter l’entreprise.
Il crée ensuite Cerebras.
En replaçant ces différentes étapes dans une perspective chronologique, on observe un aspect intéressant : Feldman n’est pas un « concepteur de puces », mais un « parieur alternatif sur l’infrastructure de calcul ». Avec SeaMicro, il misait sur la victoire des « petits cœurs » face aux « gros cœurs » — pari partiellement raté, car AMD avait acheté SeaMicro pour intégrer sa technologie d’interconnexion Freedom Fabric à sa propre plateforme de serveurs CPU, une voie qui ne s’est finalement pas concrétisée, et la marque SeaMicro a progressivement disparu. Avec Cerebras, il mise désormais sur la victoire des « grosses puces » face aux « petites puces », une hypothèse diamétralement opposée à celle de SeaMicro.
D’un certain point de vue, Feldman poursuit toujours la même démarche : identifier les chemins architecturaux de calcul ignorés par la majorité, jugés « impossibles », y placer des paris importants, puis les imposer sur le marché grâce à une capacité commerciale exceptionnelle. À l’époque de SeaMicro, il contrôlait déjà l’équipe commerciale de Force10 ; c’était justement ce réseau de distribution qui avait séduit AMD. Avec Cerebras, sa réussite la plus déterminante a consisté à décrocher G42, permettant à une entreprise dont 80 % des revenus provenaient encore en 2024 d’un seul client du Moyen-Orient de signer finalement un contrat de 20 milliards de dollars avec OpenAI.
Ce commentaire final est essentiel : Feldman est un PDG orienté « vente-produit », non un PDG visionnaire technologique. Il maîtrise l’art de vendre un produit « qui paraît fou » à des clients prêts à payer une prime pour une solution différenciée — c’est là son avantage compétitif.
Comprendre ce point est crucial, car il conditionne directement l’évaluation de la valeur d’investissement de Cerebras.
CBRS mérite-t-il d’être acheté ?
En superposant ces trois paradoxes, la réponse est nettement plus complexe que « acheter » ou « ne pas acheter ».
Si l’objectif est de profiter de la forte hausse spéculative attendue lors de la première journée de cotation — une souscription excédentaire de 20 fois, un secteur ultra-porteur (le matériel IA), un manque d’alternatives cotées pures à NVIDIA — CBRS a de fortes chances de connaître une forte envolée dès le premier jour. Il s’agit alors d’une opération de trading à court terme pilotée par un événement, ne nécessitant pas d’analyse approfondie.
En revanche, si l’on envisage une prise de position « long terme », trois questions doivent impérativement être résolues au préalable :
Premièrement, Cerebras mérite-t-il un ratio cours/chiffre d’affaires de 95 ?
CoreWeave, introduite en bourse en mars 2026, affichait un ratio P/S d’environ 15. Celui de NVIDIA se situe actuellement autour de 25. Une entreprise réalisant 510 millions de dollars de chiffre d’affaires en 2025, dont 86 % proviennent de deux clients concentrés, et qui affiche en réalité des pertes opérationnelles, est valorisée à un ratio P/S de 95 — ce qui signifie que le marché exige d’elle qu’elle atteigne un chiffre d’affaires annuel de 3 à 4 milliards de dollars dans les trois à quatre prochaines années, tout en devenant durablement rentable.
Ce scénario est-il réalisable ? Tout dépend de la concrétisation effective du contrat de 20 milliards de dollars avec OpenAI. Selon le prospectus, environ 15 % des obligations restantes de performance seront reconnues en 2026 et 2027, soit environ 3,5 milliards de dollars. Si ce calendrier est respecté, le chiffre d’affaires de Cerebras pourrait dépasser les 2 milliards de dollars en 2027, ramenant progressivement le ratio P/S vers une fourchette raisonnable. Toutefois, tout retard, tout changement stratégique d’OpenAI ou toute nouvelle perte de client suffirait à faire s’effondrer instantanément cette valorisation.
Deuxièmement, quelle est la largeur du « fossé de protection » de Cerebras ?
L’avantage architectural du WSE-3 est réel, mais combien de temps durera-t-il ? Les architectures Vera Rubin de NVIDIA, MI400 d’AMD et TPU v6 de Google progressent toutes rapidement. Le cycle de renouvellement générationnel dans le secteur des semi-conducteurs est de 18 à 24 mois. Un simple retard de Cerebras suffirait à voir son avantage technologique comblé. Or, ses dépenses de R&D représentent déjà une part élevée de son chiffre d’affaires, mais leur montant absolu reste largement inférieur à celui des géants du secteur — d’un ordre de grandeur différent.
La question plus profonde est la suivante : la voie des puces « wafer-scale » sera-t-elle un jour adoptée massivement comme voie principale, ou restera-t-elle à jamais cantonnée à des cas d’usage très spécifiques, une « unité d’élite » ? Cette question n’a pas de réponse définitive. La réponse optimiste est la suivante : lorsque la part des charges de travail d’inférence dans le volume total de calcul IA passera des 30 % actuels à plus de 70 % à l’avenir, la niche de Cerebras deviendra le champ de bataille principal. La réponse pessimiste est la suivante : dès que NVIDIA aura amélioré les performances d’inférence de Vera Rubin, cette niche restera définitivement une niche.
Troisièmement, gouvernance et risques géopolitiques
Le prospectus révèle deux points facilement négligés mais essentiels :
Premièrement, Cerebras adopte une structure actionnariale à deux classes (Class A / Class B). Après l’IPO, les dirigeants internes détiendront 99,2 % des droits de vote. Même si l’équipe fondatrice ne conserve à l’avenir que 5 % des actions en circulation, elle conservera le contrôle total de la société. Cela signifie que les actionnaires externes disposent pratiquement d’aucun pouvoir dans la gouvernance de l’entreprise.
Deuxièmement, la société signale l’existence de deux « faiblesses importantes dans le contrôle interne sur la communication financière ». En tant que société émergente, elle bénéficie d’une exemption de cinq ans après l’IPO concernant l’obligation d’audit SOX 404(b) par un cabinet tiers. C’est un signal d’alerte — pas un « feu rouge » majeur, mais digne d’attention.
Sur le plan géopolitique, le CFIUS a certes résolu la question des droits de vote liés à G42, mais les restrictions à l’exportation (autorisation requise pour l’expédition des systèmes CS-2, CS-3 et CS-4 vers les Émirats arabes unis) demeurent un facteur d’incertitude à long terme. La politique du gouvernement Trump concernant les exportations de puces IA vers le Moyen-Orient n’a pas encore trouvé une stabilité complète ; tout changement de cap politique relancerait immédiatement les risques extrêmes associés à CBRS.
Conclusion
Cette IPO de CBRS constitue, en tant qu’événement, la plus remarquable opération de capital-risque dans le domaine du matériel IA en 2026. Elle définit l’ancre de valorisation de la chaîne d’infrastructure IA sur les marchés secondaires, et sa performance influencera directement la tarification de tous les actifs connexes.
En tant qu’actif de détention à long terme, elle représente un « pari typique à fort rendement potentiel mais à très forte incertitude », reposant sur trois hypothèses simultanées : le récit macroéconomique selon lequel « l’inférence règne en maître », l’exécution microéconomique consistant à « exploiter OpenAI pour établir un monopole dans une niche étroite », et l’hypothèse de valorisation selon laquelle « le marché continuera d’accorder une prime de 95 fois le chiffre d’affaires aux entreprises du matériel IA ». Si les trois conditions se réalisent, le retour sur investissement pourrait être considérable ; si l’une d’elles échoue, la correction pourrait être brutale.
Pour les investisseurs institutionnels, la stratégie habituelle consiste à ne pas suivre la flambée initiale, mais à attendre les résultats du troisième trimestre, les mises à jour clés concernant les clients et la stabilisation progressive de la valorisation. Pour les investisseurs particuliers, il est acceptable d’intégrer CBRS comme une petite position marginale dans un portefeuille diversifié dédié au matériel IA ; en revanche, le considérer comme un investissement exclusif et aveugle exige de relire attentivement les trois paradoxes exposés ci-dessus.
Encore plus significatif que la question de savoir si CBRS connaîtra une forte hausse à l’ouverture demain est la signification sous-jacente de cette opération : le fait qu’une entreprise dont 86 % des revenus proviennent de deux entités liées aux Émirats arabes unis, et qui affiche encore des pertes opérationnelles réelles, puisse être valorisée à 48,8 milliards de dollars, révèle à tous, sans équivoque, à quel point la frénésie des capitaux dans le domaine de l’infrastructure IA a atteint un niveau extrême.
Bienvenue dans la communauté officielle TechFlow
Groupe Telegram :https://t.me/TechFlowDaily
Compte Twitter officiel :https://x.com/TechFlowPost
Compte Twitter anglais :https://x.com/BlockFlow_News














