Auteur : Gēduō Godot
Le stockage IA peut être décomposé en six couches,
1) SRAM sur puce
2) HBM
3) DRAM de carte mère
4) Couche de mise en commun CXL
5) SSD d'entreprise
6) NAS et stockage objet cloud
Cette hiérarchie est basée sur l'emplacement du stockage, plus on descend, plus on s'éloigne de l'unité de calcul et plus la capacité de stockage est grande.
En 2025, le marché total de ces six couches (la SRAM étant sur les puces de calcul, il faut exclure sa valeur intégrée) était d'environ 2290 milliards de dollars, dont la DRAM représentait la moitié, la HBM 15 % et les SSD 11 %.
En termes de profits, chaque couche est extrêmement concentrée, avec les trois premières dépassant généralement 90 % de parts de marché.
On peut classer ces bassins de profit en trois catégories,
1) Les bassins à forte marge brute et oligopolistiques de la couche silicium (HBM, SRAM embarquée, SSD QLC)
2) Les bassins émergents à forte marge brute de la couche d'interconnexion (CXL)
3) Les bassins à intérêts composés de masse de la couche service (NAS, stockage objet cloud)
Les trois types de bassins diffèrent par leur nature, leur taux de croissance et leur avantage concurrentiel.
Pourquoi le stockage est-il hiérarchisé ?
Parce que sur les puces CPU qui contrôlent et GPU qui calculent, il n'y a qu'une mémoire cache temporaire, la mémoire cache SRAM sur puce. Cet espace cache est trop petit, il ne peut contenir que quelques paramètres temporaires, pas les grands modèles.
À l'extérieur de ces deux puces, il faut connecter une mémoire plus grande pour stocker le grand modèle et le contexte d'inférence.
Le calcul est rapide, le déplacement des données entre les différents niveaux de stockage entraîne de la latence et une consommation d'énergie, c'est là le principal problème.
Donc, actuellement, trois axes :
1) Empiler la HBM, rapprocher la mémoire du GPU pour raccourcir la distance de déplacement.
2) La CXL permet de mutualiser la mémoire au niveau du rack pour partager la capacité.
3) Soudage du calcul et du stockage sur la même tranche de silicium, calcul-mémoire unifié.
Ces trois axes détermineront la forme de chaque bassin de profit au cours des cinq prochaines années.
Voici les couches spécifiques,
L0 SRAM sur puce : Le bassin de profit exclusif de TSMC
La SRAM (Static Random-access Memory, mémoire statique à accès aléatoire) est le cache interne du CPU/GPU, intégrée dans chaque puce, non commercialisée séparément.
Le marché indépendant des tranches SRAM n'est que de 10 à 17 milliards de dollars, dominé par Infineon (~15 %), Renesas (~13 %), ISSI (~10 %), marché modeste.
Cette partie du bassin de profit revient à TSMC, car chaque génération de puce IA doit acheter plus de tranches de silicium pour intégrer plus de SRAM.
Et plus de 70 % des tranches de silicium avancées mondiales sont entre les mains de TSMC. La surface de SRAM de chaque H100, B200, TPU v5, etc., se transforme finalement en revenus pour TSMC.
L1 HBM : Le plus grand bassin de profit de l'ère IA
La HBM (High Bandwidth Memory, mémoire à large bande passante) consiste à empiler verticalement la DRAM (Dynamic Random-access Memory, mémoire dynamique à accès aléatoire) avec le procédé TSV (Through-Silicon Via), puis à la coller à côté du GPU via un emballage CoWoS.
La HBM détermine presque à elle seule la taille des modèles qu'un accélérateur IA peut exécuter. SK Hynix, Micron, Samsung détiennent presque 100 % du marché.
Au premier trimestre 2026, les dernières parts de marché sont : SK Hynix 57 % à 62 %, Samsung 22 %, Micron 21 %. SK Hynix a obtenu d'importantes parts d'achat auprès d'entreprises comme NVIDIA et est le fournisseur dominant actuel.
La conférence téléphonique sur les résultats du T1 2026 de Micron indique que le TAM (Total Addressable Market) de la HBM croîtra à un TCAC d'environ 40 %, passant d'environ 350 milliards de dollars en 2025 à 1000 milliards en 2028, atteignant ce seuil deux ans plus tôt que prévu.
L'avantage principal de la HBM est sa marge bénéficiaire extrêmement élevée. Au T1 2026, la marge opérationnelle de SK Hynix a atteint un record de 72 %.
Raisons de cette haute rentabilité :
1) Le procédé de fabrication TSV sacrifie une partie de la capacité de production traditionnelle de DRAM, maintenant la HBM en état de pénurie.
2) L'amélioration du rendement de l'emballage avancé est difficile, ce qui a affecté la part de Samsung, passée de 40 % à 22 %.
3) Les principaux fournisseurs étendent prudemment leur production, et ont réalisé au T1 2026 une hausse séquentielle de plus de 60 % du prix moyen (ASP) de la DRAM, confirmant leur position dominante sur un marché vendeur.
Parmi les trois géants, SK Hynix, tiré par la HBM, a réalisé un bénéfice opérationnel annuel 2025 de 47,21 billions de wons, dépassant pour la première fois de son histoire Samsung Electronics. Au T1 2026, avec une marge opérationnelle de 72 %, il a même surpassé les niveaux de rentabilité de TSMC (58,1 %) et NVIDIA (65 %).
Micron a des attentes de croissance très élevées, Bank of America (BofA) a relevé en mai 2026 son cours cible à 950 dollars. Samsung, avec la production en série de la HBM4 en cours, a le plus grand potentiel de regain de parts.
L2 DRAM de carte mère
Ce niveau correspond à ce qu'on appelle généralement les barrettes mémoire.
La DRAM de carte mère comprend les produits mémoire standards comme la DDR5, LPDDR, GDDR, MR-DIMM, etc. C'est actuellement la partie ayant la plus grande part de ventes dans l'écosystème du stockage IA, le marché mondial total de la DRAM ayant atteint environ 1218,3 milliards de dollars en 2025.
Samsung, SK Hynix et Micron dominent toujours largement le marché. Selon les dernières données du T4 2025, Samsung est premier avec 36,6 % de part de marché, SK Hynix deuxième avec 32,9 %, et Micron troisième avec 22,9 %.
Actuellement, le redéploiement des capacités vers la HBM, plus rentable, maintient la DRAM standard à un niveau de profit et de pouvoir de fixation des prix élevé. La marge par produit individuel de la DRAM standard de carte mère, bien qu'inférieure à celle de la HBM, bénéficie du plus grand marché global.
L3 Couche de mise en commun CXL
Le CXL (Compute Express Link) permet de « mutualiser » la DRAM de la carte mère d'un seul serveur à l'ensemble d'un rack.
À partir du CXL 3.x, à l'avenir, toute la mémoire d'un baie pourra être partagée et allouée à la demande par plusieurs GPU. Cela résout les problèmes de KV cache, base de données vectorielle, index RAG qui ne tiennent pas ou ne sont pas transportables pendant l'inférence IA.
Le marché des modules mémoire CXL n'était que de 16 milliards de dollars en 2024, il est estimé à 237 milliards en 2033. Apparemment, l'oligopole Samsung, SK Hynix, Micron persiste.
Dans cette couche, Astera Labs fabrique des retimeurs (Retimer) et des contrôleurs mémoire intelligents entre le CXL et le PCIe, détenant environ 55 % de ce sous-marché. Dernier trimestre : revenus de 308 millions de dollars (+93 % en glissement annuel), marge brute non-GAAP de 76,4 %, bénéfice net +85 %. On peut dire que c'est assez lucratif.
L4 SSD d'entreprise : Le plus grand bénéficiaire de l'ère de l'inférence
Les SSD NVMe d'entreprise sont le champ de bataille principal pour les points de contrôle (checkpoint) d'entraînement IA, les index RAG, le déchargement du KV cache, la mise en cache des poids des modèles. Les SSD QLC de grande capacité ont complètement évincé les HDD des lacs de données IA.
En 2025, le marché des SSD d'entreprise était d'environ 261 milliards de dollars, avec un TCAC de 24 %, estimé à 760 milliards en 2030.
La structure ? Eh oui, toujours dominée par les trois géants.
Parts de marché basées sur les revenus du T4 2025 : Samsung 36,9 %, SK Hynix (incluant Solidigm) 32,9 %, Micron 14,0 %, Kioxia 11,7 %, SanDisk 4,4 %. Les cinq premiers représentent environ 90 %.
Le plus grand changement dans cette couche est l'explosion des SSD QLC dans les scénarios d'inférence IA. Solidigm, filiale de Hynix, et Kioxia ont déjà produit des disques de 122 To. Le KV cache d'inférence IA et les index RAG débordent de la HBM vers les SSD.
Du point de vue du bassin de profit, les SSD d'entreprise n'ont pas la marge brute extrême de la HBM, mais bénéficient d'une double dynamique : croissance pilotée par la capacité + expansion de l'inférence.
Hynix et Kioxia sont des valeurs relativement pures. Samsung et SK Hynix profitent simultanément des trois couches HBM + DRAM + NAND, ce sont des entreprises de plateforme de stockage IA plus complètes.
L5 NAS et stockage objet cloud : Le bassin d'intérêts composés de la gravité des données
Le NAS et le stockage objet cloud constituent la couche la plus externe pour les lacs de données IA, les corpus d'entraînement, l'archivage de sauvegarde, la collaboration inter-équipes. En 2025, le NAS représentait environ 396 milliards de dollars (TCAC 17 %), le stockage objet cloud environ 91 milliards (TCAC 16 %).
Les principaux acteurs du stockage fichier d'entreprise sont NetApp, Dell, HPE, Huawei ; pour les PME, Synology, QNAP. Pour le stockage objet cloud, en extrapolant les parts IaaS : AWS ~31–32 %, Azure ~23–24 %, Google Cloud ~11–12 %, les trois totalisant ~65–70 %.
Le profit de cette couche provient principalement de l'hébergement à long terme + la sortie des données du réseau (égress) + le verrouillage par l'écosystème.
Pour résumer,
1) La DRAM a le plus grand marché mais la marge brute la plus faible, 30–40 % ; la HBM ne représente qu'un tiers du marché de la DRAM, mais sa marge brute double, 60 %+ ; les retimeurs CXL ont le plus petit marché, mais la marge brute la plus élevée, 76 %+. Plus la couche est proche du calcul, plus elle est rare et lucrative.
2) La croissance des bassins de profit provient principalement de trois sources : la HBM (TCAC 28 %), les SSD d'entreprise (TCAC 24 %), la mise en commun CXL (TCAC 37 %).
3) Chaque couche a ses propres barrières : la HBM repose sur des barrières technologiques (TSV, CoWoS, amélioration du rendement) ; le CXL et similaires sur la PI et la certification (chaîne d'approvisionnement unique pour les retimeurs) ; les services sur le coût de changement.







