为什么合并使ETH 从通货膨胀转为通货紧缩很重要?

DoraFactoryPublié le 2022-09-15Dernière mise à jour le 2022-09-15

Résumé

合并后,ETH 的净发行量由正转负。代币总供应量的减少会造成通缩压力,并产生持续的积极价格影响。

传统上,具有固定最大供应量的代币称为通货紧缩代币。所有其他的都称为通胀代币。

“”

以太(ETH)没有最大供应量,所以根据这个简单的定义,它是通货膨胀的。但在本周的合并之后,它依然是通货膨胀吗?

“”

如果 ETH 燃烧的代币比它发行的多,那么它实际上有通缩压力。

“”

以下是每天大约发行 ETH 的统计数据(来源:Ethereum[1] 和 Watch The Burn[2])。

“”

合并前,自 2021 年 8 月 5 日伦敦硬分叉 (EIP-1559) 以来的过去一年中,ETH 平均每天燃烧 6700 个,少于发行的 14,600 个,因此净代币供应量一直增加。

合并后,不再有挖矿奖励:

合并后,6700 的销毁大于1600 的发行。ETH 的净总供应量正在减少。这就不像是“通胀代币”了。

“”

因此,传统定义下的没有最大供应量的“通胀代币”实际上可能具有通缩压力。

“”

也许通货膨胀和通货紧缩代币的定义需要更新。

“”

重新定义通胀和通缩代币

”“

最大代币供应量只是确定代币是否面临通胀或通缩压力的一个因素。

”“

第二个同样重要的因素是循环供应的可预测性。

”“

通胀代币 的特点是:1) 没有最大的代币供应量,以及 2) 流通供应量的增加。

”“

通缩代币 的特点是:1) 固定的最大代币供应量,以及 2) 可预测和/或持续减少的循环供应量。

”“

不具备这两个标准的代币并不是绝对的通货膨胀或通货紧缩。需要进行一些调查,或者可能不适合任何一个类别。

”“

让我们看一些例子。

”“

模因币在设有最大供应时表现更好

”“

模因币在分析最大代币供应方面具有指导意义,因为它们几乎没有基本面。从理论上讲,那些有最大代币供应的应该会更好。让我们看看这是否会奏效。

”“

在 CoinGecko 追踪的 90 个模因代币中,排前 50 的模因代币中有 68% 设置了最大代币供应量。然而,接下来的 40 个代币中只有 36% 这样做了。这验证了我们的理论。

”“

有趣的是,狗狗币是最大的模因币,但它没有设最大供应。当它在 2013 年推出时,它的最大供应量为 100B 个代币,只是后来被取消了。拥有最大的代币供应量肯定会有所帮助,尤其是在早期。

”“

通货膨胀代币

”“

Terra Classic 是过度通货膨胀的代币的完美诠释。在数十亿美元的 UST 和 LUNA 崩盘中,LUNA 的代币供应量从 3.5 亿增加到 6.5 万亿,结果可以预见的是价格下跌超过 99.9%。

”“

有趣的是,为了重振它,LUNA 在与 Terra Classic (LUNC) 不同的链上重新启动。2022 年 9 月 1 日,Terra 宣布将通过在区块链上的每笔交易中燃烧 1.2% 的代币来减少 Terra Classic 庞大的代币供应——就像 1.2% 的税率。在接下来的一周里,LUNC 升值了一倍多。

”“

通货紧缩代币

”“

Ripple (XRP) 进行程序化销毁,但增加了额外的通货紧缩机制。他们将 100B 总供应量中的 55B 锁定在一个特殊的托管账户中,以向市场证明他们不会胡乱释放大量代币(就像 Terra 那样)。他们每月释放一个相对 可预测[4] 份额,这增加了稳定性并强化了代币的通货紧缩特征,即使代币的流通供应量不断增加。据 Messari 初步估计:“按照目前的燃烧速度,XRP Ledger 需要 20 年才能燃烧掉 Ripple 及其创始人每天的分发。”

”“

Ripple 代表了项目管理其代币供应的良好模板。

”“

对 Web3 项目的建议

”“

如果您正在创建一个 Web3 项目或 DAO——或者评估一个用于投资的项目,以下是对创建通货紧缩代币的建议:

1. 以编程方式设置最大代币供应量

2. 发布代币经济学,明确说明如何以及何时分配资金

3. 让社区投票就解锁特定池的释放时间表达成一致

4. 公开释放细节以及影响您的流通代币供应的任何其他内容

5. 设置通过链上智能合约而非口头承诺的程序化销毁机制

6. 在很长一段时间内(例如 20 年)将代币供应量减少到目标数量。

Lectures associées

Où se trouve le goulot d'étranglement dans la chaîne industrielle de l'IA Infra ?

L'industrie de l'infrastructure IA (AI Infra) fait face à des goulots d'étranglement systémiques à presque tous les niveaux, entravant le déploiement massif de la puissance de calcul nécessaire aux applications d'intelligence artificielle. Quatre principaux obstacles sont identifiés : Le « mur de la mémoire » : La demande croissante en mémoire à large bande (HBM) et DRAM pour l'inférence IA dépasse l'offre, les nouvelles capacités de production n'étant attendues qu'à partir de 2027. Le « mur de la bande passante » : La vitesse de calcul dépasse celle du transfert des données, créant des goulots à tous les niveaux (puces, serveurs, centres de données). L'énergie nécessaire pour déplacer les données dépasse parfois celle utilisée pour les calculs. Le « mur de calcul » : La fabrication de puces haut de gamme est limitée par la disponibilité des équipements de production avancés, notamment les machines de lithographie EUV (ASML), et par la chaîne d'approvisionnement mondiale complexe en matériaux et équipements spécialisés. Le « mur électrique » : Bien que la consommation énergétique des data centers IA soit énorme, ce défi est considéré comme plus gérable à moyen et long terme grâce aux énergies renouvelables. Au-delà de ces murs, l'expansion de la production est freinée par des pénuries en amont : * **Équipements de test (ATE)** : Essentiels pour tester à 100% les puces IA complexes, leur demande explose. * **Substrats IC/porteurs** : Un point de rupture critique. Ces composants, plus chers que les puces dans certains cas, sont indispensables pour le packaging avancé (2.5D/3D). Leur production, concentrée chez quelques fabricants taïwanais, est un goulot d'étranglement majeur pour des sociétés comme NVIDIA. * **Matériaux spéciaux** : Des « épices industrielles » comme les fibres de verre à faible CTE, les feuilles de cuivre spéciales et les forets de précision sont en pénurie. Leur haute technicité et leur production limitée menacent toute la chaîne. * **Salles blanches haute technologie** : La construction de ces environnements de production ultra-propres pour les puces et packaging avancés est un secteur à forte barrière technique et financière, en forte demande. Enfin, la connectivité dans les data centers évolue avec une compétition entre le cuivre et la fibre optique selon la distance : le cuivre regagne du terrain pour les courtes distances (<7m) grâce à son coût et sa fiabilité, des solutions hybrides (Micro LED) émergent pour les distances moyennes, et la fibre optique (dont la fibre creuse innovante) reste cruciale pour les longues distances. Les technologies de PCB et de substrats doivent également évoluer (plus de couches, substrats en verre) pour supporter la bande passante requise. En résumé, le développement de l'infrastructure IA est contraint par des limitations multidimensionnelles, de la fabrication fondamentale des puces aux matériaux et équipements spécialisés en amont. La recomposition des chaînes d'approvisionnement et l'évolution des technologies de connexion (cuivre/optique) façonneront l'avenir du secteur.

marsbitIl y a 19 mins

Où se trouve le goulot d'étranglement dans la chaîne industrielle de l'IA Infra ?

marsbitIl y a 19 mins

Autonomie ou compatibilité : Le choix de l'écosystème d'IA chinois derrière le report de DeepSeek V4

L'annonce du report de DeepSeek V4, un modèle d'IA open-source multi-modal de taille trillion de paramètres, a relancé le débat mondial sur la « dé-CUDA-isation ». Le modèle, initialement prévu pour début 2026, est en cours d'adaptation pour fonctionner sur les puces Ascend de Huawei via le framework CANN. Ceci représente un test crucial pour la faisabilité d'une infrastructure IA chinoise indépendante de l'écosystème CUDA de Nvidia. La complexité technique est immense. La migration vers Ascend, dont l'architecture matérielle et logicielle (CANN) est moins mature que CUDA, nécessite une réécriture profonde du code et une optimisation des opérateurs. Cela révèle que la compétition en IA est passée de la simple course aux paramètres à une bataille systémique sur l'infrastructure et l'ingénierie. Le report du V4 est le prix à payer pour cette indépendance. La domination quasi monopolistique de Nvidia, via son écosystème CUDA verrouillé, rend toute migration extrêmement difficile. La stratégie de Huawei avec CANN a été d'opter pour une compatibilité de haut niveau avec CUDA pour faciliter l'adoption, mais cette approche présente des limites. Elle risque de perpétuer une dépendance aux standards définis par Nvidia et pourrait freiner l'innovation fondamentale chinoise à long terme. Le défi est de taille : la compatibilité est nécessaire à court terme pour survivre, mais une véritable autonomie est cruciale pour définir les futures règles du jeu. Les 3 à 5 prochaines années seront décisives pour déterminer si l'écosystème IA chinois peut passer d'un statut de suiveur à celui de leader capable de définir ses propres paradigmes techniques, tout en maintenant une ouverture pour rester compétitif à l'échelle mondiale.

marsbitIl y a 37 mins

Autonomie ou compatibilité : Le choix de l'écosystème d'IA chinois derrière le report de DeepSeek V4

marsbitIl y a 37 mins

Trading

Spot
Futures
活动图片