为什么 Hyperliquid 越火 ,Arbitrum 就越能「闷声发大财」?

marsbitPublié le 2025-12-03Dernière mise à jour le 2025-12-04

最近, @HyperliquidX HIP3协议爆火,股票Perp、黄金Perp,甚至Pokémon卡片、CS饰品皮肤等都能上线交易了,这让Hyperliquid一时风光无两,但很多人却忽略了, @arbitrum_cn 的流动性也在过去实现了大暴涨。

没错,Hyperliquid 越火 ,Arbitrum 就越能“闷声发大财”?为什么这么说?

1)一个基本事实,Hyperliquid持有的USDC,大部分都要从Arbitrum桥接过来,每当Hyperliquid上线一个TSLA股票合约、一个黄金perp,背后都是海量USDC从Arbitrum涌入。这种关联不是“顺带”,而是结构性依赖。

这些桥接活动,直接贡献了Arbitrum的日交易量和生态活性,推动Arbitrum持续稳坐layer2 第一把交椅;


2)当然,会有人说,Arbitrum只是Hyperliquid资金的跳板,只是资金过一道就走,那为什么Hyperliquid不选择Solana,不选择 Base,而是深度绑定了Arbitrum?原因如下:

1、技术适配成本最低:Hyperliquid需要一个EVM兼容性好的流动入口来安全承接稳定币,而Arbitrum的Nitro架构能让桥接延迟控制在1分钟内,且Gas费不足0.01美元,用户几乎感受不到摩擦成本;

2、流动性深度无可替代:Arbitrum原生USDC流通量达到了80.6亿美元,为所有layer2中最高。而且Arbitrum上有GMX、Gains等成熟协议已经形成了完整的借贷、交易、衍生品、收益聚合等闭环,本质上,Hyperliquid选择Arbitrum,不止是一个桥接通道,而是一个成熟流动性网络;

3、生态协同效应不可复制:HIP3新上线的一些股票Perp、黄金perp甚至国债代币等,在Arbitrum上早就以RWA资产的形式存在,并通过Morpho、Pendle、Euler等DeFi协议实现了借贷和farming等操作。这样一来,用户可以在Arbitrum上质押RWA资产作为抵押品,借出USDC,然后桥接到Hyperliquid开5倍甚至10倍杠杆交易股票perp。这不是资金过一道就走,而是跨生态的流动性聚合。


3)在我看来,Hyperliquid和Arbitrum之间绝非简单的流动性“寄生关系”,而是战略互补。

Hyperliquid作为Perp Dex的应用链持续激发交易活性,而Arbitrum则提供持续性的流动性输血,对于Arbitrum而言,也需要Hyperliquid这样的现象级应用来打破以太坊生态在产品张力上的不足。

这让我想起,当初Arbitrum在推Orbit layer3的框架时,主打的就是“通用layer2+专业化应用链”这张牌,Orbit允许任何团队快速部署自己的Layer3应用链,既能享受Arbitrum的安全性和流动性,又能根据业务需求定制化性能参数。

Hyperliquid虽然选择了自建layer1 +深度绑定Arbitrum的路径,看起来跟直接部署layer3不是一回事。但如果你仔细分析HIP-3生态和Arbitrum之间的关系,会发现一个有趣的结论:HIP3生某种程度上已经成了Arbitrum事实上的Layer3应用链。

毕竟,所谓layer3的核心逻辑就是,在保持自身性能优势的同时,把安全性和流动性外包给Layer2。显然,Hyperliquid暂时给不了HIP3生态的流动性优势,但Arbitrum可以。


这不就是一类变种layer3运作模式吗?

Lectures associées

Google et Amazon investissent simultanément dans un concurrent, la logique commerciale la plus absurde de l'ère IA devient réalité

En l'espace de 4 jours, Amazon a annoncé un investissement supplémentaire de 25 milliards de dollars et Google jusqu'à 40 milliards de dollars dans Anthropic, une startup d'IA. Ces deux concurrents directs ont ainsi engagé plus de 65 milliards de dollars dans la même entreprise. Cet investissement massif ne relève pas d'une logique capitalistique traditionnelle, mais marque le début d'un nouveau round dans la guerre du cloud. L'enjeu pour Google et Amazon n'est pas la simple possession d'une part d'Anthropic, mais la sécurisation de contrats de pré-achat de puissance de calcul (ou "pré-vente de calcul"). Les fonds investis sont conditionnés à ce qu'Anthropic les dépense en services cloud et puces des investisseurs. Amazon a obtenu un engagement de dépense de plus de 1000 milliards de dollars sur AWS sur dix ans, et Google fournira environ 5 gigawatts de puissance de calcul. La concurrence dans le cloud a changé : les entreprises ne choisissent plus un fournisseur pour son prix ou sa stabilité, mais pour savoir "quel modèle d'IA de pointe tourne sur son cloud". Le modèle détermine le choix de la puissance de calcul. OpenAI étant déjà étroitement lié à Microsoft, Anthropic et son modèle Claude sont devenus la seule cible stratégique disponible pour Google et Amazon pour ne pas perdre des clients entreprises. Anthropic, avec un revenu annuel récurrent (ARR) de 30 milliards de dollars, est devenu un acteur infrastructurel incontournable. Cependant, cette dépendance financière et technique envers deux géants concurrents pose des défis pour son indépendance future, sa narration autour de la sécurité et sa pression pour une introduction en bourse. La situation contraste avec celle de la Chine, où des investissements comme celui d'Alibaba et Tencent dans DeepSeek (modèle open-source) suivent une logique différente, moins centrée sur un verrouillage par la puissance de calcul et plus ouverte. Le paysage de l'IA évolue ainsi vers une structure à plusieurs pôles fermés (modèles privateurs liés à un cloud spécifique), tandis que les modèles open-source offrent une alternative cruciale pour l'écosystème.

marsbitIl y a 3 h

Google et Amazon investissent simultanément dans un concurrent, la logique commerciale la plus absurde de l'ère IA devient réalité

marsbitIl y a 3 h

Capacité de calcul limitée : pourquoi DeepSeek-V4 est-il open source ?

Face à des contraintes de calcul, DeepSeek a choisi de rendre son modèle DeepSeek-V4 open source, tout en proposant une version Pro aux capacités avancées mais limitée en débit en raison de ressources de calcul haute performance insuffisantes. Le modèle exploite une architecture MoE (Mixture of Experts) avec 1,6T de paramètres au total mais seulement 49B activés lors de l'inférence, permettant une gestion de contexte longue (1 million de tokens). Une version Flash, avec 284B de paramètres totaux et seulement 13B activés, est conçue pour une adoption massive sur du matériel moins performant, visant ainsi les PME et développeurs. Le modèle excelle dans des tâches exigeantes comme la génération de code et le raisonnement complexe, rivalisant avec des modèles fermés leaders. DeepSeek a également collaboré avec des fabricants de puces chinoises (Huawei, Cambricon, Hygon) pour optimiser l'exécution sur du matériel local, bien que des défis persistent en termes de performance pure et d’approvisionnement. Cette stratégie intervient dans un contexte de concurrence intense sur le marché chinois des modèles de langage et de départs clés dans l’équipe R&D. DeepSeek cherche également à lever des fonds à une valorisation élevée, et cette version open source constitue une démonstration de sa résilience technologique et de son orientation pragmatique vers une IA accessible malgré les limites actuelles du calcul.

marsbitIl y a 4 h

Capacité de calcul limitée : pourquoi DeepSeek-V4 est-il open source ?

marsbitIl y a 4 h

Trading

Spot
Futures
活动图片