Comprendre en un coup d'œil les bassins de profit et la structure industrielle de la hiérarchie du stockage IA

marsbitPublié le 2026-05-14Dernière mise à jour le 2026-05-14

Résumé

L'article présente la hiérarchie de stockage dans l'IA, structurée en six couches, du plus proche au plus éloigné des unités de calcul : SRAM sur puce, HBM, DRAM de carte mère, couche de mise en pool CXL, SSD d'entreprise, et stockage NAS/objet cloud. En 2025, ce marché totalise environ 2290 milliards de dollars, dominé par le DRAM (50%), suivi du HBM (15%) et des SSD (11%). Les bassins de profit sont de trois types : les pools oligopolistiques à haute marge (HBM, SRAM embarqué, SSD QLC), les pools émergents liés à l'interconnexion (CXL), et les pools d'échelle à effet de rente (NAS, stockage objet cloud). Le HBM, avec une croissance annuelle de 40% et des marges opérationnelles pouvant dépasser 70% (ex : SK Hynix), constitue le profit le plus important de l'ère IA. Les couches les plus proches du calcul (HBM, contrôleurs CXL comme ceux d'Astera Labs) sont les plus rentables mais aussi les plus concentrées, dominées par Samsung, SK Hynix et Micron. L'évolution est marquée par trois axes : l'augmentation du HBM pour rapprocher la mémoire, la mise en pool CXL pour partager la mémoire au niveau du rack, et l'intégration calcul-mémoire. Le stockage d'entreprise (SSD), en particulier QLC, bénéficie de l'expansion de l'inférence IA. En résumé, plus la couche est proche du calcul, plus elle est rare et rentable, les principales croissances provenant du HBM, des SSD d'entreprise et de la mise en pool CXL.

Auteur : Gēduō Godot

Le stockage IA peut être décomposé en six couches,

1) SRAM sur puce

2) HBM

3) DRAM de carte mère

4) Couche de mise en commun CXL

5) SSD d'entreprise

6) NAS et stockage objet cloud

Cette hiérarchie est basée sur l'emplacement du stockage, plus on descend, plus on s'éloigne de l'unité de calcul et plus la capacité de stockage est grande.

En 2025, le marché total de ces six couches (la SRAM étant sur les puces de calcul, il faut exclure sa valeur intégrée) était d'environ 2290 milliards de dollars, dont la DRAM représentait la moitié, la HBM 15 % et les SSD 11 %.

En termes de profits, chaque couche est extrêmement concentrée, avec les trois premières dépassant généralement 90 % de parts de marché.

On peut classer ces bassins de profit en trois catégories,

1) Les bassins à forte marge brute et oligopolistiques de la couche silicium (HBM, SRAM embarquée, SSD QLC)

2) Les bassins émergents à forte marge brute de la couche d'interconnexion (CXL)

3) Les bassins à intérêts composés de masse de la couche service (NAS, stockage objet cloud)

Les trois types de bassins diffèrent par leur nature, leur taux de croissance et leur avantage concurrentiel.

Pourquoi le stockage est-il hiérarchisé ?

Parce que sur les puces CPU qui contrôlent et GPU qui calculent, il n'y a qu'une mémoire cache temporaire, la mémoire cache SRAM sur puce. Cet espace cache est trop petit, il ne peut contenir que quelques paramètres temporaires, pas les grands modèles.

À l'extérieur de ces deux puces, il faut connecter une mémoire plus grande pour stocker le grand modèle et le contexte d'inférence.

Le calcul est rapide, le déplacement des données entre les différents niveaux de stockage entraîne de la latence et une consommation d'énergie, c'est là le principal problème.

Donc, actuellement, trois axes :

1) Empiler la HBM, rapprocher la mémoire du GPU pour raccourcir la distance de déplacement.

2) La CXL permet de mutualiser la mémoire au niveau du rack pour partager la capacité.

3) Soudage du calcul et du stockage sur la même tranche de silicium, calcul-mémoire unifié.

Ces trois axes détermineront la forme de chaque bassin de profit au cours des cinq prochaines années.

Voici les couches spécifiques,

L0 SRAM sur puce : Le bassin de profit exclusif de TSMC

La SRAM (Static Random-access Memory, mémoire statique à accès aléatoire) est le cache interne du CPU/GPU, intégrée dans chaque puce, non commercialisée séparément.

Le marché indépendant des tranches SRAM n'est que de 10 à 17 milliards de dollars, dominé par Infineon (~15 %), Renesas (~13 %), ISSI (~10 %), marché modeste.

Cette partie du bassin de profit revient à TSMC, car chaque génération de puce IA doit acheter plus de tranches de silicium pour intégrer plus de SRAM.

Et plus de 70 % des tranches de silicium avancées mondiales sont entre les mains de TSMC. La surface de SRAM de chaque H100, B200, TPU v5, etc., se transforme finalement en revenus pour TSMC.

L1 HBM : Le plus grand bassin de profit de l'ère IA

La HBM (High Bandwidth Memory, mémoire à large bande passante) consiste à empiler verticalement la DRAM (Dynamic Random-access Memory, mémoire dynamique à accès aléatoire) avec le procédé TSV (Through-Silicon Via), puis à la coller à côté du GPU via un emballage CoWoS.

La HBM détermine presque à elle seule la taille des modèles qu'un accélérateur IA peut exécuter. SK Hynix, Micron, Samsung détiennent presque 100 % du marché.

Au premier trimestre 2026, les dernières parts de marché sont : SK Hynix 57 % à 62 %, Samsung 22 %, Micron 21 %. SK Hynix a obtenu d'importantes parts d'achat auprès d'entreprises comme NVIDIA et est le fournisseur dominant actuel.

La conférence téléphonique sur les résultats du T1 2026 de Micron indique que le TAM (Total Addressable Market) de la HBM croîtra à un TCAC d'environ 40 %, passant d'environ 350 milliards de dollars en 2025 à 1000 milliards en 2028, atteignant ce seuil deux ans plus tôt que prévu.

L'avantage principal de la HBM est sa marge bénéficiaire extrêmement élevée. Au T1 2026, la marge opérationnelle de SK Hynix a atteint un record de 72 %.

Raisons de cette haute rentabilité :

1) Le procédé de fabrication TSV sacrifie une partie de la capacité de production traditionnelle de DRAM, maintenant la HBM en état de pénurie.

2) L'amélioration du rendement de l'emballage avancé est difficile, ce qui a affecté la part de Samsung, passée de 40 % à 22 %.

3) Les principaux fournisseurs étendent prudemment leur production, et ont réalisé au T1 2026 une hausse séquentielle de plus de 60 % du prix moyen (ASP) de la DRAM, confirmant leur position dominante sur un marché vendeur.

Parmi les trois géants, SK Hynix, tiré par la HBM, a réalisé un bénéfice opérationnel annuel 2025 de 47,21 billions de wons, dépassant pour la première fois de son histoire Samsung Electronics. Au T1 2026, avec une marge opérationnelle de 72 %, il a même surpassé les niveaux de rentabilité de TSMC (58,1 %) et NVIDIA (65 %).

Micron a des attentes de croissance très élevées, Bank of America (BofA) a relevé en mai 2026 son cours cible à 950 dollars. Samsung, avec la production en série de la HBM4 en cours, a le plus grand potentiel de regain de parts.

L2 DRAM de carte mère

Ce niveau correspond à ce qu'on appelle généralement les barrettes mémoire.

La DRAM de carte mère comprend les produits mémoire standards comme la DDR5, LPDDR, GDDR, MR-DIMM, etc. C'est actuellement la partie ayant la plus grande part de ventes dans l'écosystème du stockage IA, le marché mondial total de la DRAM ayant atteint environ 1218,3 milliards de dollars en 2025.

Samsung, SK Hynix et Micron dominent toujours largement le marché. Selon les dernières données du T4 2025, Samsung est premier avec 36,6 % de part de marché, SK Hynix deuxième avec 32,9 %, et Micron troisième avec 22,9 %.

Actuellement, le redéploiement des capacités vers la HBM, plus rentable, maintient la DRAM standard à un niveau de profit et de pouvoir de fixation des prix élevé. La marge par produit individuel de la DRAM standard de carte mère, bien qu'inférieure à celle de la HBM, bénéficie du plus grand marché global.

L3 Couche de mise en commun CXL

Le CXL (Compute Express Link) permet de « mutualiser » la DRAM de la carte mère d'un seul serveur à l'ensemble d'un rack.

À partir du CXL 3.x, à l'avenir, toute la mémoire d'un baie pourra être partagée et allouée à la demande par plusieurs GPU. Cela résout les problèmes de KV cache, base de données vectorielle, index RAG qui ne tiennent pas ou ne sont pas transportables pendant l'inférence IA.

Le marché des modules mémoire CXL n'était que de 16 milliards de dollars en 2024, il est estimé à 237 milliards en 2033. Apparemment, l'oligopole Samsung, SK Hynix, Micron persiste.

Dans cette couche, Astera Labs fabrique des retimeurs (Retimer) et des contrôleurs mémoire intelligents entre le CXL et le PCIe, détenant environ 55 % de ce sous-marché. Dernier trimestre : revenus de 308 millions de dollars (+93 % en glissement annuel), marge brute non-GAAP de 76,4 %, bénéfice net +85 %. On peut dire que c'est assez lucratif.

L4 SSD d'entreprise : Le plus grand bénéficiaire de l'ère de l'inférence

Les SSD NVMe d'entreprise sont le champ de bataille principal pour les points de contrôle (checkpoint) d'entraînement IA, les index RAG, le déchargement du KV cache, la mise en cache des poids des modèles. Les SSD QLC de grande capacité ont complètement évincé les HDD des lacs de données IA.

En 2025, le marché des SSD d'entreprise était d'environ 261 milliards de dollars, avec un TCAC de 24 %, estimé à 760 milliards en 2030.

La structure ? Eh oui, toujours dominée par les trois géants.

Parts de marché basées sur les revenus du T4 2025 : Samsung 36,9 %, SK Hynix (incluant Solidigm) 32,9 %, Micron 14,0 %, Kioxia 11,7 %, SanDisk 4,4 %. Les cinq premiers représentent environ 90 %.

Le plus grand changement dans cette couche est l'explosion des SSD QLC dans les scénarios d'inférence IA. Solidigm, filiale de Hynix, et Kioxia ont déjà produit des disques de 122 To. Le KV cache d'inférence IA et les index RAG débordent de la HBM vers les SSD.

Du point de vue du bassin de profit, les SSD d'entreprise n'ont pas la marge brute extrême de la HBM, mais bénéficient d'une double dynamique : croissance pilotée par la capacité + expansion de l'inférence.

Hynix et Kioxia sont des valeurs relativement pures. Samsung et SK Hynix profitent simultanément des trois couches HBM + DRAM + NAND, ce sont des entreprises de plateforme de stockage IA plus complètes.

L5 NAS et stockage objet cloud : Le bassin d'intérêts composés de la gravité des données

Le NAS et le stockage objet cloud constituent la couche la plus externe pour les lacs de données IA, les corpus d'entraînement, l'archivage de sauvegarde, la collaboration inter-équipes. En 2025, le NAS représentait environ 396 milliards de dollars (TCAC 17 %), le stockage objet cloud environ 91 milliards (TCAC 16 %).

Les principaux acteurs du stockage fichier d'entreprise sont NetApp, Dell, HPE, Huawei ; pour les PME, Synology, QNAP. Pour le stockage objet cloud, en extrapolant les parts IaaS : AWS ~31–32 %, Azure ~23–24 %, Google Cloud ~11–12 %, les trois totalisant ~65–70 %.

Le profit de cette couche provient principalement de l'hébergement à long terme + la sortie des données du réseau (égress) + le verrouillage par l'écosystème.

Pour résumer,

1) La DRAM a le plus grand marché mais la marge brute la plus faible, 30–40 % ; la HBM ne représente qu'un tiers du marché de la DRAM, mais sa marge brute double, 60 %+ ; les retimeurs CXL ont le plus petit marché, mais la marge brute la plus élevée, 76 %+. Plus la couche est proche du calcul, plus elle est rare et lucrative.

2) La croissance des bassins de profit provient principalement de trois sources : la HBM (TCAC 28 %), les SSD d'entreprise (TCAC 24 %), la mise en commun CXL (TCAC 37 %).

3) Chaque couche a ses propres barrières : la HBM repose sur des barrières technologiques (TSV, CoWoS, amélioration du rendement) ; le CXL et similaires sur la PI et la certification (chaîne d'approvisionnement unique pour les retimeurs) ; les services sur le coût de changement.

Questions liées

QQuelle est la structure hiérarchique du stockage AI présentée dans l'article et quel est le marché total estimé pour 2025 ?

AL'article décompose le stockage AI en six couches hiérarchiques, de la plus proche à la plus éloignée de l'unité de calcul : 1) SRAM sur puce, 2) HBM, 3) DRAM sur carte mère, 4) Couche de mise en commun CXL, 5) SSD d'entreprise, 6) NAS et stockage d'objets cloud. Pour 2025, le marché total de ces couches (hors valeur embarquée du SRAM) est estimé à environ 2290 milliards de dollars américains.

QQuels sont les trois principaux types de 'bassins de profit' identifiés dans le stockage AI et quelles sont leurs caractéristiques ?

ALes trois types de bassins de profit sont : 1) Les bassins oligopolistiques à haute marge de la couche silicium (HBM, SRAM embarqué, SSD QLC), caractérisés par des marges brutes élevées et une forte concentration. 2) Le bassin émergent à haute marge de la couche d'interconnexion (CXL), avec une forte croissance. 3) Les bassins à rendements d'échelle de la couche service (NAS, stockage d'objets cloud), profitant des effets de réseau et des coûts de changement.

QPourquoi la couche HBM est-elle considérée comme le plus grand bassin de profit de l'ère AI ? Citez des chiffres clés pour étayer cette affirmation.

ALa couche HBM est considérée comme le plus grand bassin de profit en raison de sa rentabilité exceptionnelle. En 2026, son marché (TAM) devrait croître à un TCAC d'environ 40% pour atteindre 1000 milliards de dollars en 2028. Au premier trimestre 2026, SK Hynix, leader du marché, a atteint une marge opérationnelle record de 72%, dépassant même TSMC (58,1%) et NVIDIA (65%). Les trois fournisseurs (SK Hynix, Samsung, Micron) détiennent une part de marché quasi totale.

QQuel est le rôle de la technologie CXL dans l'infrastructure de stockage AI et quelle entreprise domine un sous-segment clé de cette couche ?

ALa technologie CXL (Compute Express Link) permet de 'mettre en commun' la mémoire DRAM au niveau du baie, permettant à plusieurs GPU de partager et d'allouer dynamiquement la mémoire. Cela résout les problèmes de capacité pour le cache KV, les bases de données vectorielles et les index RAG lors de l'inférence AI. Dans le sous-segment des 'retimers' (re-synchronisateurs) et contrôleurs mémoire intelligents, qui relient CXL et PCIe, l'entreprise Astera Labs domine avec environ 55% de part de marché, affichant une marge brute non-GAAP de 76,4%.

QSelon l'article, quels sont les trois principaux axes d'évolution technologique pour optimiser le mouvement des données entre les couches de stockage et de calcul ?

ALes trois principaux axes d'évolution pour réduire la latence et la consommation énergétique liées au mouvement des données sont : 1) Empiler davantage de HBM pour rapprocher la mémoire du GPU. 2) Utiliser le CXL pour mutualiser la mémoire au niveau du baie. 3) Développer l'in-memory computing (calcul en mémoire) où le calcul et le stockage sont intégrés sur la même puce.

Lectures associées

ChatGPT peut désormais gérer vos finances, seriez-vous prêt à lui confier vos comptes bancaires ?

Le 15 mai, OpenAI a lancé un outil de gestion financière personnelle pour ChatGPT, permettant aux utilisateurs américains de l'abonnement Pro (200 $/mois) de connecter leurs comptes bancaires et d'investissement via le service Plaid, avec accès à plus de 12 000 institutions financières. L'outil analyse les données financières pour offrir un tableau de bord détaillé (soldes, transactions, dépenses, investissements, dettes) et permet des conseils personnalisés via dialogue naturel (ex. : plans d'épargne, analyse des dépenses). Il mémorise même des objectifs financiers pour des recommandations contextuelles. OpenAI a préparé ce lancement par deux acquisitions fintech (Roi et Hiro Finance) en 2025-2026, visant à transformer ChatGPT en "assistant super personnel" pour des décisions à haute valeur comme la santé (lancée en janvier) et les finances. Cependant, la fonctionnalité soulève de vives inquiétudes sur la confidentialité, surtout après une plainte collective récente accusant OpenAI de partager des données de conversation avec Meta et Google. Bien que l'entreprise garantisse que ChatGPT ne peut pas effectuer d'opérations et supprime les données sous 30 jours, un paramètre optionnel permet d'utiliser les données pour l'entraînement des modèles. Cette initiative s'inscrit dans une tendance où les entreprises d'IA (comme Anthropic et Perplexity) se spécialisent dans des domaines riches en données personnelles. Mais contrairement aux conseillers financiers humains réglementés, ChatGPT n'assume aucune responsabilité légale pour ses recommandations. OpenAI teste ainsi la confiance des utilisateurs, une étape clé pour son ambition de créer un assistant universel, mais l'acceptation publique reste incertaine face aux risques perçus.

marsbitIl y a 50 mins

ChatGPT peut désormais gérer vos finances, seriez-vous prêt à lui confier vos comptes bancaires ?

marsbitIl y a 50 mins

L’hiver glacial des IPO cryptos : Consensys et Ledger retirent leurs projets collectivement

**Hiver glacial pour les IPO cryptos : Consensys et Ledger retirent leurs projets** Le 14 mai, Consensys, développeur du portefeuille MetaMask, a reporté son introduction en bourse au plus tôt à l'automne 2026. La veille, le géant des portefeuilles matériels Ledger a également suspendu son projet d'IPO aux États-Unis. Ces reports, suivant ceux de l'échange Kraken, marquent un net resserrement de la fenêtre des introductions en bourse pour les entreprises du secteur en 2026, contrastant avec l'effervescence de 2025. 2025 avait été une année record : succès de l'IPO de Circle, introductions de Bullish et Gemini, levée de 146 milliards de dollars via les IPO cryptos. Le BTC avait atteint 126 000 $, attirant les capitaux institutionnels. En 2026, le paysage a changé : le prix du Bitcoin a corrigé, les volumes ont baissé, et l'appétit des investisseurs pour les actions cryptos s'est refroidi. L'IPO de BitGo en janvier, première de l'année, illustre cette défiance avec une performance décevante après un début prometteur. Plusieurs facteurs expliquent cette pause. La mauvaise performance boursière des IPO de 2025 (comme Circle et Bullish) a rendu les investisseurs traditionnels méfiants, exigeant une prime de risque plus élevée face à la forte cyclicité du secteur. Parallèlement, l'engouement se porte massivement vers l'IA, avec des préparations d'IPO colossales (SpaceX, OpenAI, Anthropic) drainant les capitaux au détriment des actifs cryptos, perçus comme plus volatils et moins dotés d'une croissance "certaine". Face à ces conditions de marché difficiles, les entreprises cryptos adoptent des stratégies plus prudentes. Certaines, comme Ledger, pourraient se tourner vers des financements privés. D'autres optimisent leurs produits ou développent des services institutionnels et de conformité, visant à démontrer une rentabilité et des flux de trésorerie stables avant de relancer leurs projets boursiers. Cette période de consolidation pourrait renforcer le secteur à long terme en accélérant la sélection naturelle, favorisant les entreprises aux fondamentaux solides et à la conformité robuste. Elle pousse également l'industrie à passer d'un modèle porté par le récit à un modèle axé sur les performances. Une remontée soutenue du Bitcoin au-dessus de 90 000 $ et des avancées réglementaires pourraient rouvrir une fenêtre d'opportunités pour les IPO dans le second semestre 2026.

marsbitIl y a 51 mins

L’hiver glacial des IPO cryptos : Consensys et Ledger retirent leurs projets collectivement

marsbitIl y a 51 mins

Trading

Spot
Futures

Articles tendance

Comment acheter ONE

Bienvenue sur HTX.com ! Nous vous permettons d'acheter Harmony (ONE) de manière simple et pratique. Suivez notre guide étape par étape pour commencer votre parcours crypto.Étape 1 : Création de votre compte HTXUtilisez votre adresse e-mail ou votre numéro de téléphone pour ouvrir un compte sur HTX gratuitement. L'inscription se fait en toute simplicité et débloque toutes les fonctionnalités.Créer mon compteÉtape 2 : Choix du mode de paiement (rubrique Acheter des cryptosCarte de crédit/débit : utilisez votre carte Visa ou Mastercard pour acheter instantanément Harmony (ONE).Solde :utilisez les fonds du solde de votre compte HTX pour trader en toute simplicité.Prestataire tiers :pour accroître la commodité d'utilisation, nous avons ajouté des modes de paiement populaires tels que Google Pay et Apple Pay.P2P :tradez directement avec d'autres utilisateurs sur HTX.OTC (de gré à gré) : nous offrons des services personnalisés et des taux de change compétitifs aux traders.Étape 3 : stockage de vos Harmony (ONE)Après avoir acheté vos Harmony (ONE), stockez-les sur votre compte HTX. Vous pouvez également les envoyer ailleurs via un transfert sur la blockchain ou les utiliser pour trader d'autres cryptos.Étape 4 : tradez des Harmony (ONE)Tradez facilement Harmony (ONE) sur le marché Spot de HTX. Il vous suffit d'accéder à votre compte, de sélectionner la paire de trading, d'exécuter vos trades et de les suivre en temps réel. Nous offrons une expérience conviviale aux débutants comme aux traders chevronnés.

371 vues totalesPublié le 2024.12.12Mis à jour le 2025.03.21

Comment acheter ONE

Discussions

Bienvenue dans la Communauté HTX. Ici, vous pouvez vous tenir informé(e) des derniers développements de la plateforme et accéder à des analyses de marché professionnelles. Les opinions des utilisateurs sur le prix de ONE (ONE) sont présentées ci-dessous.

活动图片