Rédaction : Xiao Hei, Deep Tide TechFlow
Prix fixé le 13 mai, début des transactions le 14 mai, code NASDAQ CBRS.
Il s'agit de la plus grande introduction en bourse mondiale à ce jour en 2026. La syndication de garantie est composée de Morgan Stanley, Citi, Barclays et UBS. Une telle équipe a obtenu une souscription excédentaire de 20 fois lors de la phase de roadshow, faisant monter le prix d'introduction de l'intervalle initial de 115-125 dollars à 150-160 dollars. Le montant prévu levé est de 4,8 milliards de dollars, correspondant à une valorisation de 48,8 milliards de dollars.
Il y a seulement trois mois, la valorisation secondaire de Cerebras était encore de 23 milliards. En d'autres termes, juste avant l'IPO, la valeur comptable de l'entreprise a plus que doublé.
L'"argument de vente" de l'histoire a été répété dix mille fois : le challenger de Nvidia, la puce au niveau wafer, une vitesse d'inférence 21 fois supérieure au B200, un contrat de puissance de calcul avec OpenAI commençant à 1 milliard de dollars et pouvant atteindre 20 milliards. C'est un scénario parfait de "challenger de l'IA" : récit technologique, récit géopolitique, client star, commande massive, chaque pièce s'emboîtant parfaitement sur la ligne principale de l'infrastructure IA en 2026.
Mais en lisant page par page le document S-1, on découvre une chose étrange : tous les reportages publics racontent la même histoire, tandis que le prospectus en raconte une autre.
Le triple paradoxe
En détaillant point par point le prospectus, Cerebras se présente comme un actif constitué d'un "triple paradoxe".
Premier paradoxe : Vrai Alpha technologique, tour de passe-passe comptable sur le plan financier.
Le prospectus révèle : chiffre d'affaires 2025 de 510 millions de dollars, en hausse de 76 %, bénéfice net GAAP de 237,8 millions de dollars. Cela semble très impressionnant : une entreprise de matériel IA en croissance rapide et déjà rentable, c'est presque un actif "légendaire" dans l'environnement d'évaluation actuel. Lors de son IPO en mars dernier, CoreWeave était encore en perte, Cerebras présente directement une marge nette de 47 %.
Mais ces 237,8 millions de dollars de "bénéfice net" comprennent 363,3 millions provenant d'un ajustement comptable unique et non monétaire, un gain sur papier généré par l'extinction d'une dette de contrat à terme (forward contract liability extinguishment) liée à G42. En excluant cet élément et en réintégrant 49,8 millions de dollars de charges liées aux actions (stock-based compensation), la véritable perte nette non-GAAP de 2025 est de 75,7 millions de dollars, une détérioration de 247 % par rapport à la perte de 21,8 millions en 2024.
En d'autres termes, le marché voit le prodige doré de l'IPO "rentable + croissance de 76 %", tandis que le prospectus révèle une "entreprise en croissance rapide dont les pertes continuent de s'aggraver". Aucune des deux versions n'est vraiment fausse, la différence réside dans celle que le marché est prêt à croire.
Deuxième paradoxe : Apparemment débarrassé de G42, en réalité remplacé par une structure circulaire imbriquée avec OpenAI.
L'histoire du premier échec de l'IPO de Cerebras en 2024 n'est pas compliquée : G42, ce client basé aux Émirats arabes unis, a contribué à 85 % du chiffre d'affaires du premier semestre, le CFIUS a ouvert une enquête, l'entreprise a été contrainte de retirer sa demande.
Un an et demi plus tard, elle revient au combat, la liste des clients semble désormais diversifiée, avec l'ajout de clients de poids comme OpenAI et AWS. Mais en ouvrant le S-1 de mai 2026, la structure clientèle pour 2025 est la suivante :
- MBZUAI (Université Mohamed bin Zayed d'Intelligence Artificielle) : 62 %
- G42 : 24 %
- Total des deux : 86 %
G42 a simplement cédé son "poids" au MBZUAI, également situé aux Émirats arabes unis et lié à G42. Le client unique MBZUAI représente 77,9 % des créances clients.
Et cette prétendue "ligne de rédemption" qu'est OpenAI est elle-même une structure imbriquée. Ce contrat, d'une valeur supérieure à 20 milliards de dollars, engage OpenAI à acheter 750 MW de puissance de calcul. Mais le même document révèle aussi plusieurs choses : OpenAI a accordé un prêt de 1 milliard de dollars à Cerebras ; OpenAI a obtenu près de 33 millions de bons de souscription d'actions de Cerebras quasi-gratuits ; le Master Relationship Agreement d'OpenAI contient une clause d'exclusivité limitant les ventes de Cerebras à certains "concurrents nommés".
En d'autres termes, OpenAI est simultanément client, prêteur, futur actionnaire et, dans une certaine mesure, partenaire de contrôle stratégique de Cerebras. Un analyste anonyme a déclaré à propos d'une analyse sur Medium une phrase cinglante : Lorsque les revenus sont circulaires, la valorisation est circulaire, et l'IPO sert à permettre à ceux qui ont généré ces revenus de monétiser, alors ce n'est pas un marché, c'est de l'ingénierie financière.
La formulation est peut-être trop abrupte, mais sur le plan factuel, il est difficile de réfuter cette affirmation.
Troisième paradoxe : Apparemment le "challenger" de Nvidia, en réalité le "comblant de niche" de Nvidia.
C'est le point le plus facilement négligé par le marché.
La technologie de Cerebras est réellement solide. Le WSE-3 comporte 4 000 milliards de transistors, 900 000 cœurs IA, 44 Go de SRAM sur puce, faisant d'une tranche de wafer entière une seule puce, contournant le goulot d'étranglement de la communication inter-puces auquel tous les clusters GPU sont confrontés. Des tests de référence indépendants d'Artificial Analysis montrent que pour exécuter Llama 4 Maverick (400 milliards de paramètres), le CS-3 produit plus de 2 500 tokens par seconde et par utilisateur, tandis que le flagship DGX B200 de Nvidia en produit environ 1 000, Groq et SambaNova respectivement 549 et 794.
Les chiffres ne mentent pas, Cerebras a un avantage générationnel sur le GPU dans ce scénario spécifique qu'est l'inférence.
Le mot-clé est "inférence". Le propre prospectus de Cerebras l'explique clairement, il excelle dans les charges de travail d'inférence sensibles à la latence (latency-sensitive inference workloads). Pour l'entraînement de grands modèles et le calcul général, il n'a ni la capacité ni l'intention de défier Nvidia. L'écosystème CUDA, accumulé depuis 2007, a près de 20 ans d'histoire, la chaîne d'outils d'entraînement de modèles, la communauté de développeurs, les bibliothèques tierces, tout cela reste dans le fossé défensif de Nvidia.
Plus crucial encore, le marché n'est pas resté immobile. L'architecture Vera Rubin de Nvidia, annoncée lors du GTC 2026, avec 336 milliards de transistors, promet des performances 5 fois supérieures à Blackwell ; l'AMD MI400 a déjà atteint 320 milliards de transistors ; Google TPU v6, Amazon Trainium 3, Microsoft Maia 2, les hyperscalers développent tous leurs propres puces. Les dépenses de R&D de Nvidia pour l'exercice 2025 ont dépassé 18 milliards de dollars, en décembre dernier, elle a également dépensé 20 milliards de dollars pour acquérir les actifs de la startup d'inférence IA Groq, et en mars, elle a investi 4 milliards de dollars dans deux sociétés de technologie photonique.
Une formulation plus précise serait donc : Cerebras ne vise pas à remplacer Nvidia, il cherche à s'emparer d'une position différenciée dans la niche "inférence" de Nvidia. C'est une vraie affaire, mais une valorisation de 48,8 milliards de dollars pour un chiffre d'affaires de 510 millions de dollars implique un ratio prix/ventes de 95.
La troisième "vente de produit" d'Andrew Feldman
Au-delà des chiffres, il faut parler de la figure emblématique de cette entreprise.
Andrew Feldman est un "entrepreneur en série sériel" sous-estimé de la Silicon Valley. Ce n'est pas un fondateur génie technologique, encore moins issu du monde universitaire. Diplômé de la Stanford Business School, il a été vice-président marketing chez Riverstone Networks (introduite en bourse en 2001), et vice-président produits chez Force10 Networks (vendue à Dell pour 800 millions de dollars en 2011).
En 2007, il a cofondé SeaMicro avec Gary Lauterbach, développant des "serveurs à haute efficacité énergétique", empilant un cluster de processeurs faible consommation à petits cœurs, en opposition aux serveurs grand public à grands cœurs et haute consommation. Cette idée était très avant-gardiste, mais le marché était trop précoce. En 2012, AMD a racheté SeaMicro pour 334 millions de dollars. Feldman a travaillé chez AMD pendant deux ans en tant que vice-président avant de démissionner.
Puis il a créé Cerebras.
En examinant le parcours de Feldman, on remarque une chose intéressante : il n'est pas un "concepteur de puces", mais un "parieur alternatif sur l'infrastructure de calcul". SeaMicro était un pari sur "les petits cœurs battant les grands cœurs", un pari à moitié perdu. À l'époque, AMD l'a acheté pour utiliser sa technologie d'interconnexion Freedom Fabric sur sa propre plateforme de serveurs CPU, mais cette voie n'a pas abouti, la marque SeaMicro a ensuite disparu en silence. Cerebras est un pari sur "la grande puce battant la petite puce", exactement le contraire de la proposition de SeaMicro.
Dans un certain sens, Feldman fait la même chose : trouver dans l'architecture informatique les chemins négligés par le courant dominant, qui semblent "impossibles", y miser lourdement, puis les propulser sur le marché avec un très fort pouvoir de vente. À l'époque de SeaMicro, il pouvait tenir en main l'équipe commerciale de Force10 ; AMD avait été séduit par son réseau commercial ; la chose la plus importante qu'il ait faite correctement avec Cerebras est d'avoir convaincu G42, permettant à une entreprise de matériel dont 80 % du chiffre d'affaires provenait encore d'un seul client du Moyen-Orient en 2024, de finalement signer un contrat de 20 milliards de dollars avec OpenAI.
L'épilogue de cette histoire est le suivant : Feldman est un PDG de type "vente de produit", pas un PDG de type "vision technologique". Il excelle à vendre un produit "qui semble fou" à des clients prêts à payer une prime pour la différenciation, c'est son alpha.
Comprendre ce point est important car il détermine directement le jugement sur la valeur d'investissement de Cerebras.
Alors, CBRS vaut-il la peine d'être acheté ?
En superposant les trois paradoxes ci-dessus, la réponse est en réalité bien plus complexe qu'un simple "acheter" ou "ne pas acheter".
Si l'objectif est de profiter de la flambée spéculative du premier jour de l'IPO, avec une souscription excédentaire de 20 fois, le secteur du matériel IA étant le plus en vogue, et l'absence d'alternative pure à Nvidia sur le marché, CBRS a de fortes chances de monter en flèche dès le premier jour. Il s'agit d'une transaction à court terme pilotée par l'événement, ne nécessitant pas une analyse profonde.
Mais pour un jugement d'investissement en vue d'une "détention à long terme", trois choses doivent d'abord être clarifiées :
Premièrement, Cerebras vaut-il un ratio prix/ventes de 95 ?
CoreWeave, lors de son IPO en mars dernier, avait un ratio prix/ventes d'environ 15. Nvidia actuellement a un ratio prix/ventes d'environ 25. Une entreprise avec un chiffre d'affaires 2025 de 510 millions de dollars, une concentration client de 86 %, et en perte réelle au niveau opérationnel, évaluée à un ratio prix/ventes de 95, équivaut à ce que le marché exige d'elle un chiffre d'affaires de 3 à 4 milliards de dollars dans les trois à quatre prochaines années, ainsi qu'une rentabilité continue.
Est-ce réalisable ? Tout dépend du contrat de 20 milliards de dollars d'OpenAI et de sa réalisation dans les délais. Selon le prospectus, environ 15 % des obligations de performance restantes (remaining performance obligations) seront comptabilisées en 2026 et 2027, soit environ 3,5 milliards de dollars. Si ce rythme est respecté, le chiffre d'affaires de Cerebras pourrait dépasser 2 milliards de dollars en 2027+, permettant de ramener le ratio prix/ventes dans une fourchette raisonnable. Mais tout retard à un moment donné, tout ajustement stratégique d'OpenAI, toute nouvelle perte de clientèle rendrait instantanément cette valorisation intenable.
Deuxièmement, quelle est la largeur du fossé défensif de Cerebras ?
L'avantage architectural du WSE-3 est réel, mais combien de temps durera-t-il ? Nvidia Vera Rubin, AMD MI400, Google TPU v6 avancent tous. Le cycle de renouvellement générationnel dans l'industrie des semi-conducteurs est de 18 à 24 mois. Si Cerebras prend ne serait-ce qu'un peu de retard, son avantage technologique sera rattrapé. Et ses dépenses de R&D en proportion du chiffre d'affaires ne sont déjà pas faibles, mais en montant absolu, comparé aux géants, l'écart reste d'un ordre de grandeur.
Une question plus profonde : la voie de la puce au niveau wafer est-elle une voie principale qui sera largement adoptée, ou restera-t-elle à jamais une "unité spéciale" survivant uniquement dans des scénarios de niche ? Il n'y a pas de réponse certaine. La réponse optimiste : lorsque la part des charges de travail d'inférence dans le volume total de calcul IA passera de 30 % aujourd'hui à 70 %+ à l'avenir, la niche de Cerebras deviendra le champ de bataille principal. La réponse pessimiste : si Nvidia parvient à améliorer les performances d'inférence de Rubin, la niche restera à jamais une niche.
Troisièmement, structure de gouvernance et risque géopolitique
Le prospectus révèle deux choses facilement négligées mais importantes :
Premièrement, Cerebras adopte une structure d'actions à deux classes (Class A/Class B). Après l'IPO, les initiés détiendront 99,2 % des droits de vote. Même si l'équipe fondatrice ne détient à l'avenir que 5 % des actions en circulation, elle contrôlera toujours l'entreprise. Cela signifie que les petits actionnaires externes n'ont quasiment aucun pouvoir de décision sur la gouvernance de l'entreprise.
Deuxièmement, l'entreprise déclare l'existence de deux "déficiences importantes du contrôle interne" (material weaknesses in internal control over financial reporting). En tant qu'entreprise émergente en croissance, elle peut être exemptée pendant cinq ans après l'IPO de la certification de l'auditeur SOX 404(b). C'est un signal d'alerte, pas une alerte majeure, mais cela mérite d'être noté.
Sur le plan géopolitique, le CFIUS a cette fois résolu le problème des droits de vote de G42, mais les contrôles à l'exportation (autorisations d'expédition des CS-2, CS-3, CS-4 vers les Émirats arabes unis) restent une variable à long terme. L'orientation politique de l'administration Trump concernant les exportations de puces IA vers le Moyen-Orient n'est toujours pas complètement stabilisée, toute fluctuation politique pourrait raviver le risque extrême de CBRS.
Conclusion
L'IPO de CBRS, en tant qu'événement, est l'événement capitalistique matériel IA le plus notable de 2026. Il définit l'ancre d'évaluation de la ligne d'infrastructure IA sur le marché secondaire, et sa performance se répercutera sur la valorisation de tous les actifs associés.
En tant que position de détention à long terme, c'est un pari typique "à haute rémunération potentielle, haute incertitude", misant sur le récit macro "l'inférence est reine" + l'exécution micro "Cerebras peut, grâce à OpenAI, obtenir un monopole dans sa niche" + l'hypothèse d'évaluation "le marché est prêt à continuer à payer une prime de 95 fois le ratio prix/ventes pour le matériel IA". Si ces trois conditions se réalisent simultanément, les rendements seront énormes ; si l'une d'elles s'effondre, les pertes seront sévères.
Pour les investisseurs institutionnels, l'approche habituelle de constitution de position est souvent de ne pas suivre le mouvement le premier jour, d'attendre les résultats du troisième trimestre, les progrès des clients clés, la digestion de la valorisation. Pour les investisseurs individuels, la considérer comme un petit actif marginal dans une allocation de matériel IA, c'est possible ; en faire un actif de conviction all-in, relisez le triple paradoxe ci-dessus.
Plus que la question de savoir si CBRS va monter en flèche demain à l'ouverture, ce qui mérite une attention particulière est l'autre signification de cet événement : Lorsqu'une entreprise dont 86 % du chiffre d'affaires provient de deux entités liées aux Émirats arabes unis, et dont l'activité réelle est encore déficitaire, peut être valorisée par le marché à 48,8 milliards de dollars, cela montre à quel point la frénésie capitaliste dans le secteur de l'infrastructure IA a déjà atteint un niveau.





