——从 Gonka 在 LA Hacks 2026 的演讲谈起
4月26日,DeepSeek 发布 V4 系列 API 新定价:全系输入缓存命中价格降至首发价的十分之一,Pro 版本叠加限时优惠后,百万 Token 的处理成本低至 0.025 元——比一年前便宜了近百倍。A 股算力板块当日集体涨停,市场情绪沸腾。
但在欢呼声背后,有一个问题没有人在正面讨论:当模型变得越来越便宜,运行模型所需的算力正在变得越来越集中。
数据不会说谎。2025年第四季度,微软、亚马逊、Meta、谷歌四家云厂商合计资本开支同比提升 64% 至 1186 亿美元;预计 2026 年全年合计资本开支将进一步同比增长 53%,达到 5708 亿美元。谷歌同期将 2026 年 TPU 芯片出货量目标上调 50% 至 600 万颗。英伟达 H100 系列的交货周期,在部分市场已长达数月。
模型层的定价权正在向开发者倾斜,但算力层的控制权正在以更快的速度向少数巨头收拢。这是 AI 时代一个隐蔽但深刻的矛盾。
就在这个背景下,2026年4月24日,Gonka 协议联合创始人 Daniil 和 David Liberman 走上了 LA Hacks 2026 的主旨演讲台。这场 UCLA 年度最大高校黑客松,今年由 Liberman 兄弟担任主旨演讲嘉宾,面对的是数百名即将走入这个行业的顶尖工程师。他抛出的问题,在此刻格外清晰:去中心化算力,是否还来得及?
一、降价潮的另一面
DeepSeek V4 的降价逻辑,表面上是技术进步带来的效率红利——新的注意力机制压缩了 Token 维度,结合 DSA 稀疏注意力,大幅降低了对计算和显存的需求。但降价能够持续发生,依赖的前提是某个地方的算力足够充足、足够便宜。
现实是,这个「足够充足」的算力来源,在全球范围内正在快速向少数节点汇聚。光通信龙头 Lumentum 的 CEO Michael Hurlston 不久前表示,按当前趋势,公司到 2028 年的产能几乎已经全部售罄。这不是个别公司的困境,而是整个 AI 基础设施供应链在高速扩张需求面前的集体紧张。
Daniil 在 LA Hacks 演讲中用了一个简单却有力的对照:比特币网络的算力,已经超过谷歌、微软、亚马逊三家云数据中心的总和——但这些算力在做什么?在解一道无人需要答案的哈希谜题。全球闲散的 GPU 算力同样如此:游戏玩家机器里的显卡、大学机房里的服务器、中小云服务商手里的余量,加总起来规模庞大,却因为缺乏协调机制而无法被 AI 推理所用。
Gonka 试图解决的,正是这个协调问题——用工作量证明的激励机制,把散落在全球的闲置 GPU 组织成一张可以承接真实 AI 推理任务的网络。
二、推理是新的战场
DeepSeek 的降价在中文互联网里掀起了对「AI 平权」的广泛讨论。但有一个被忽视的细节:降价降的是「调用价格」,不是「算力成本」。随着 AI 应用规模化,推理调用量的增长是指数级的——根据行业预测,到 2026 年,推理将占全球 AI 算力消耗的三分之二左右。
这意味着什么?每降低一个数量级的调用价格,实际需要的算力总量只会更多,不会更少。大模型的「民主化」,在某种程度上反而加速了算力层的集中化——因为只有拥有大规模算力的玩家,才能在超低毛利下撑住推理服务的运营。
这是一个正在形成的结构性锁定:谁掌控推理侧的物理算力,谁就掌控了 AI 时代真正的基础设施入口。从这个角度看,去中心化算力网络的意义,已经不仅仅是「便宜 50%」的成本优化,而是在集中化锁定完成之前提供一条结构性的替代路径。
三、对年轻建设者的真实拷问
LA Hacks 的参与者——来自加州顶尖高校的工程师和产品人——很快就会面临一个并不浪漫的工程选择:把自己的产品建在哪层算力之上。
你的 AI 产品,推理调用的是谁的服务器?
当那个平台调整定价策略或访问政策,你有没有迁移的能力?
你帮助建立的用户规模,是在给自己创造价值,还是在给平台输送筹码?
这些问题在 Web2 时代已经被开发者们体验过一次:当应用的命运与平台算法或分发规则深度绑定,「独立」就成了一个需要随时重新定义的词。AI 时代的算力依赖,会把同样的逻辑复刻到基础设施层,而且因为切换成本更高,锁定效应只会更强。
黑客松,作为一种形式,有它内在的反讽:36小时内,用最少的资源、最快的速度构建出可运行的东西——这恰恰是去中心化网络激励机制所追求的状态。Daniil 在 LA Hacks 站上演讲台,不只是为了讲 Gonka,更像是在问这群人:你们未来要做的事情,是在帮助这个集中化的趋势加速,还是在制造新的可能?
四、PoW 2.0:一个工程命题
Gonka 把工作量证明的激励结构从哈希计算重新对准了 AI 推理,使网络中近 100% 的算力贡献直接对应真实任务。这套机制有一个工程上的关键要求:AI 推理任务必须是可验证、可重现的——给定相同的模型权重、相同的随机种子和输入,任何节点都可以复现计算结果并校验其有效性。这是 Gonka 从学术原型走向可运行网络的核心工程难点。
从经济学角度看,这套机制的意义在于:代币价值天然锚定于物理算力成本,而非流动性情绪。贡献算力的矿工获得回报,调用算力的开发者支付费用,整个体系的激励闭环不依赖于任何中间商的善意维持。
当然,技术可行性只是一部分。更难的问题是:在算力需求飞速增长、大玩家资本开支以百亿美元为单位的时代,一个依靠社区自发贡献组织起来的分布式算力网络,能不能在规模上构成真正意义上的竞争?
Gonka 的早期数据给出了一个参考坐标:主网上线不到一年,网络聚合算力从 60 块 H100 当量扩展至超过 10,000 块,这个速度来自全球数百个独立节点的自发接入,而非中心化调配。这不能证明规模问题已经解决,但它说明激励机制有效地驱动了早期增长。
五、窗口期的问题
历史上,基础设施的主导权往往在早期快速收敛——铁路时代如此,互联网时代如此,移动互联网时代亦然。每一次,都有人在标准尚未固化之前找到了插入的位置,也有人在集中化完成之后才意识到参与权已经大幅收窄。
AI 算力基础设施目前处于哪个阶段?从四大云厂商 2026 年 5708 亿美元的预期资本开支来看,集中化已经在加速;但从开发者的实际使用模式来看,供给侧仍然存在大量未被有效整合的资源。这个间隙,是去中心化网络在结构上能够存在的空间。
Daniil 在演讲中引用了一个对照:2000 年互联网泡沫破灭后,留下的不是废墟,而是铺遍全球的光纤网络,支撑了此后二十年数字经济的运行。AI 基础设施投资热潮退去之后,沉淀下来的算力协议和激励机制,将成为下一个周期的基础设施——问题只是,哪些协议的底层逻辑足够坚实,能在压力下依然保持运转。
这不是一个关于某个具体项目的问题,而是整个去中心化 AI 赛道需要直面的问题:治理设计是否能够真正抵抗单点控制的侵蚀?激励机制是否在规模扩大之后依然有效?算力网络的去中心化,是否在技术执行层、代币发行层、升级决策层三个维度上同时成立?
结语
DeepSeek 的降价让「AI 民主化」的叙事再次升温。但民主化的推理调用,和民主化的算力基础设施,是两件不同的事。前者正在发生;后者能否发生,取决于接下来几年里,有多少人真的把这当成一个值得解决的工程问题,而不只是一个好听的叙事。








