算力正在重新集中:DeepSeek 降价之后,谁来掌控 AI 的基础设施?

marsbitPublished on 2026-04-29Last updated on 2026-04-29

——从 Gonka 在 LA Hacks 2026 的演讲谈起

4月26日,DeepSeek 发布 V4 系列 API 新定价:全系输入缓存命中价格降至首发价的十分之一,Pro 版本叠加限时优惠后,百万 Token 的处理成本低至 0.025 元——比一年前便宜了近百倍。A 股算力板块当日集体涨停,市场情绪沸腾。

但在欢呼声背后,有一个问题没有人在正面讨论:当模型变得越来越便宜,运行模型所需的算力正在变得越来越集中。

数据不会说谎。2025年第四季度,微软、亚马逊、Meta、谷歌四家云厂商合计资本开支同比提升 64% 至 1186 亿美元;预计 2026 年全年合计资本开支将进一步同比增长 53%,达到 5708 亿美元。谷歌同期将 2026 年 TPU 芯片出货量目标上调 50% 至 600 万颗。英伟达 H100 系列的交货周期,在部分市场已长达数月。

模型层的定价权正在向开发者倾斜,但算力层的控制权正在以更快的速度向少数巨头收拢。这是 AI 时代一个隐蔽但深刻的矛盾。

就在这个背景下,2026年4月24日,Gonka 协议联合创始人 Daniil 和 David Liberman 走上了 LA Hacks 2026 的主旨演讲台。这场 UCLA 年度最大高校黑客松,今年由 Liberman 兄弟担任主旨演讲嘉宾,面对的是数百名即将走入这个行业的顶尖工程师。他抛出的问题,在此刻格外清晰:去中心化算力,是否还来得及?

一、降价潮的另一面

DeepSeek V4 的降价逻辑,表面上是技术进步带来的效率红利——新的注意力机制压缩了 Token 维度,结合 DSA 稀疏注意力,大幅降低了对计算和显存的需求。但降价能够持续发生,依赖的前提是某个地方的算力足够充足、足够便宜。

现实是,这个「足够充足」的算力来源,在全球范围内正在快速向少数节点汇聚。光通信龙头 Lumentum 的 CEO Michael Hurlston 不久前表示,按当前趋势,公司到 2028 年的产能几乎已经全部售罄。这不是个别公司的困境,而是整个 AI 基础设施供应链在高速扩张需求面前的集体紧张。

Daniil 在 LA Hacks 演讲中用了一个简单却有力的对照:比特币网络的算力,已经超过谷歌、微软、亚马逊三家云数据中心的总和——但这些算力在做什么?在解一道无人需要答案的哈希谜题。全球闲散的 GPU 算力同样如此:游戏玩家机器里的显卡、大学机房里的服务器、中小云服务商手里的余量,加总起来规模庞大,却因为缺乏协调机制而无法被 AI 推理所用。

Gonka 试图解决的,正是这个协调问题——用工作量证明的激励机制,把散落在全球的闲置 GPU 组织成一张可以承接真实 AI 推理任务的网络。

二、推理是新的战场

DeepSeek 的降价在中文互联网里掀起了对「AI 平权」的广泛讨论。但有一个被忽视的细节:降价降的是「调用价格」,不是「算力成本」。随着 AI 应用规模化,推理调用量的增长是指数级的——根据行业预测,到 2026 年,推理将占全球 AI 算力消耗的三分之二左右。

这意味着什么?每降低一个数量级的调用价格,实际需要的算力总量只会更多,不会更少。大模型的「民主化」,在某种程度上反而加速了算力层的集中化——因为只有拥有大规模算力的玩家,才能在超低毛利下撑住推理服务的运营。

这是一个正在形成的结构性锁定:谁掌控推理侧的物理算力,谁就掌控了 AI 时代真正的基础设施入口。从这个角度看,去中心化算力网络的意义,已经不仅仅是「便宜 50%」的成本优化,而是在集中化锁定完成之前提供一条结构性的替代路径。

三、对年轻建设者的真实拷问

LA Hacks 的参与者——来自加州顶尖高校的工程师和产品人——很快就会面临一个并不浪漫的工程选择:把自己的产品建在哪层算力之上。

你的 AI 产品,推理调用的是谁的服务器?

当那个平台调整定价策略或访问政策,你有没有迁移的能力?

你帮助建立的用户规模,是在给自己创造价值,还是在给平台输送筹码?

这些问题在 Web2 时代已经被开发者们体验过一次:当应用的命运与平台算法或分发规则深度绑定,「独立」就成了一个需要随时重新定义的词。AI 时代的算力依赖,会把同样的逻辑复刻到基础设施层,而且因为切换成本更高,锁定效应只会更强。

黑客松,作为一种形式,有它内在的反讽:36小时内,用最少的资源、最快的速度构建出可运行的东西——这恰恰是去中心化网络激励机制所追求的状态。Daniil 在 LA Hacks 站上演讲台,不只是为了讲 Gonka,更像是在问这群人:你们未来要做的事情,是在帮助这个集中化的趋势加速,还是在制造新的可能?

四、PoW 2.0:一个工程命题

Gonka 把工作量证明的激励结构从哈希计算重新对准了 AI 推理,使网络中近 100% 的算力贡献直接对应真实任务。这套机制有一个工程上的关键要求:AI 推理任务必须是可验证、可重现的——给定相同的模型权重、相同的随机种子和输入,任何节点都可以复现计算结果并校验其有效性。这是 Gonka 从学术原型走向可运行网络的核心工程难点。

从经济学角度看,这套机制的意义在于:代币价值天然锚定于物理算力成本,而非流动性情绪。贡献算力的矿工获得回报,调用算力的开发者支付费用,整个体系的激励闭环不依赖于任何中间商的善意维持。

当然,技术可行性只是一部分。更难的问题是:在算力需求飞速增长、大玩家资本开支以百亿美元为单位的时代,一个依靠社区自发贡献组织起来的分布式算力网络,能不能在规模上构成真正意义上的竞争?

Gonka 的早期数据给出了一个参考坐标:主网上线不到一年,网络聚合算力从 60 块 H100 当量扩展至超过 10,000 块,这个速度来自全球数百个独立节点的自发接入,而非中心化调配。这不能证明规模问题已经解决,但它说明激励机制有效地驱动了早期增长。

五、窗口期的问题

历史上,基础设施的主导权往往在早期快速收敛——铁路时代如此,互联网时代如此,移动互联网时代亦然。每一次,都有人在标准尚未固化之前找到了插入的位置,也有人在集中化完成之后才意识到参与权已经大幅收窄。

AI 算力基础设施目前处于哪个阶段?从四大云厂商 2026 年 5708 亿美元的预期资本开支来看,集中化已经在加速;但从开发者的实际使用模式来看,供给侧仍然存在大量未被有效整合的资源。这个间隙,是去中心化网络在结构上能够存在的空间。

Daniil 在演讲中引用了一个对照:2000 年互联网泡沫破灭后,留下的不是废墟,而是铺遍全球的光纤网络,支撑了此后二十年数字经济的运行。AI 基础设施投资热潮退去之后,沉淀下来的算力协议和激励机制,将成为下一个周期的基础设施——问题只是,哪些协议的底层逻辑足够坚实,能在压力下依然保持运转。

这不是一个关于某个具体项目的问题,而是整个去中心化 AI 赛道需要直面的问题:治理设计是否能够真正抵抗单点控制的侵蚀?激励机制是否在规模扩大之后依然有效?算力网络的去中心化,是否在技术执行层、代币发行层、升级决策层三个维度上同时成立?

结语

DeepSeek 的降价让「AI 民主化」的叙事再次升温。但民主化的推理调用,和民主化的算力基础设施,是两件不同的事。前者正在发生;后者能否发生,取决于接下来几年里,有多少人真的把这当成一个值得解决的工程问题,而不只是一个好听的叙事。

Related Reads

Trading

Spot
Futures

Hot Articles

Discussions

Welcome to the HTX Community. Here, you can stay informed about the latest platform developments and gain access to professional market insights. Users' opinions on the price of AI (AI) are presented below.

活动图片