AI的下一场地震:为什么真正的危险不是SaaS杀手,而是算力革命?

marsbit发布于2026-02-12更新于2026-02-12

文章摘要

当前科技界普遍关注AI应用如何颠覆传统SaaS,但真正的变革在于算力领域的革命。这场革命由两条技术路线推动:一是算法的瘦身革命,例如DeepSeek的MoE架构,仅激活部分参数即可达到与全参数模型相当的性能,大幅降低算力需求;二是硬件的换道革命,如Cerebras和Groq的专用推理芯片,通过内置内存实现零延迟访问,显著提升效率。这两者的结合将导致AI训练和推理成本急剧下降,可能仅为传统GPU方案的10%-15%。英伟达的GPU垄断地位因此面临挑战,其市值依赖的“AI必须依赖GPU”的故事根基正在动摇。未来最大的风险可能来自算力领域的范式转移,而非应用层的竞争。

撰文:Bruce

最近,整个科技圈和投资界都紧盯着同一件事:AI 应用正在如何「杀死」传统的 SaaS。自从 @AnthropicAI 的 Claude Cowork 展示了它能如何轻松地帮你写邮件、做 PPT、分析 Excel 表格后,一场关于「软件已死」的恐慌就开始蔓延。这确实很吓人,但如果你的目光只停留在这里,那你可能错过了真正的大地震。

这就像我们所有人都抬头看着天上的无人机空战,却没人注意到,我们脚下的整片大陆板块正在悄然移动。真正的风暴,藏在水面之下,一个大多数人看不见的角落:支撑整个 AI 世界的算力根基,正在发生一场「寂静的革命」。

而这场革命,可能让 AI 的卖铲人:英伟达 @nvidia,精心举办的这场盛大派对,比所有人想象的都更早结束。

两条正在交汇的革命之路

这场革命并非单一事件,而是由两条看似独立的技术路线交织而成。它们像两支正在合围的军队,对英伟达的 GPU 霸权形成了钳形攻势。

第一条路,是算法的瘦身革命。

你有没有想过,一个超级大脑在思考问题时,真的需要调动所有脑细胞吗?显然不需要。DeepSeek 就想明白了这件事,他们搞出 MoE(混合专家模型)的架构。

你可以把它想象成一个公司,里面养了几百个不同领域的专家。但每次开会解决问题时,你只需要请最相关的两三个人,而不是让所有人一起头脑风暴。这就是 MoE 的聪明之处:它让一个庞大的模型,在每次计算时只激活一小部分「专家」,从而极大地节省了算力。

结果会如何呢?DeepSeek-V2 模型,名义上有 2360 亿「专家」(参数),但每次干活,只需要激活其中的 210 亿,连总数的 9% 都不到。而它的表现,却能和那个需要 100% 全力运转的 GPT-4 相媲美。这意味着什么?AI 的能力,和它消耗的算力,脱钩了!

过去,我们都默认 AI 越强,烧的卡越多。现在,DeepSeek 告诉我们,通过聪明的算法,可以用十分之一的成本,达到同样的效果。这就等于直接把英伟达 GPU 的刚需属性,打上了一个巨大的问号。

第二条路,是硬件的「换道」革命。

AI 干活分为训练和推理两个阶段。训练就像上学,需要读万卷书,这时候 GPU 这种「大力出奇迹」的并行计算卡确实好用。但推理就像我们日常使用 AI,更看重反应速度。

GPU 在推理时有个天生缺陷:它的内存(HBM)是外挂的,数据一来一回有延迟。这就像一个厨师,食材都放在隔壁房间的冰箱里,每次炒菜都得跑过去拿,再快也快不到哪去。而 Cerebras、Groq 这些公司就另起炉灶,设计了专用的推理芯片,把内存(SRAM)直接焊在芯片上,食材就放在手边,实现了「零延迟」访问。

市场已经用真金白银投票了。OpenAI 一边抱怨英伟达的 GPU 推理不行,一边扭头就和 Cerebras 签了个 100 亿美元的大单,专门租用他们的推理服务。英伟达自己也慌了,反手就花了 200 亿美元把 Groq 给收了,为的就是不在这条新赛道上掉队。

当两条路交汇:成本雪崩

好了,现在我们把这两件事放在一起:用一个算法上「瘦过身」的 DeepSeek 模型,跑在一个硬件上「零延迟」的 Cerebras 芯片上。

会发生什么?

一场成本的雪崩。

首先,瘦身后的模型很小,可以一次性全部装进芯片自带的内存里。其次,没有了外部内存的瓶颈,AI 的反应速度会快得惊人。最终的结果是:训练成本因 MoE 架构下降了 90%,推理成本因专用硬件和稀疏计算再下降一个数量级。算下来,拥有和运行一个世界级 AI 的总成本,可能只有传统 GPU 方案的 10%-15%。

这不是改良,这是范式转移。

英伟达的王座,正在被悄悄抽掉地毯

现在你应该明白,为什么这比「Cowork 恐慌」更致命了。

英伟达今天几万亿的市值,建立在一个简单的故事上:AI 是未来,而 AI 的未来必须靠我的 GPU。但现在,这个故事的根基正在被动摇。

在训练市场,就算英伟达继续垄断,但如果客户用十分之一的卡就能干活,那这个市场的总体规模也可能大幅缩水。

在推理市场,这个比训练大十倍的蛋糕上,英伟达不仅没有绝对优势,还面临着 Google、Cerebras 等各路神仙的围剿。连它最大的客户 OpenAI 都在叛逃。

一旦华尔街意识到,英伟达的「铲子」不再是唯一的、甚至是最好的选择时,建立在「永久垄断」预期上的估值,会发生什么?我想大家都很清楚。

所以,未来半年最大的黑天鹅,可能不是哪个 AI 应用又干掉了谁,而是一则看似不起眼的技术新闻:比如一篇关于 MoE 算法效率的新论文,或者一份显示专用推理芯片市场份额大增的报告,悄悄宣告了算力战争进入新阶段。

当「卖铲人」的铲子不再是唯一选择时,属于他的黄金时代,可能也就结束了。

相关问答

Q文章认为AI领域真正的危险是什么,而不是什么?

A文章认为AI领域真正的危险不是SaaS应用(如Claude Cowork)对传统软件的冲击,而是支撑整个AI世界的算力根基正在发生一场‘寂静的革命’。

Q文章提到的两条正在交汇的革命之路分别是什么?

A第一条路是算法的瘦身革命,以MoE(混合专家模型)架构为代表,通过每次只激活模型的一小部分‘专家’来极大节省算力;第二条路是硬件的‘换道’革命,以Cerebras、Groq等公司设计的专用推理芯片为代表,通过将内存直接集成在芯片上实现‘零延迟’访问,提升推理效率。

QDeepSeek-V2模型通过MoE架构实现了什么效果?

ADeepSeek-V2模型名义上有2360亿参数,但每次推理只需激活其中的210亿(不到总数的9%),其表现却能媲美需要100%全力运转的GPT-4。这意味着AI的能力和其消耗的算力实现了脱钩,可以用十分之一的成本达到同样的效果。

Q为什么GPU在AI推理阶段存在天生缺陷?

AGPU在推理阶段的天生缺陷在于其内存(HBM)是外挂的,数据在处理器和内存之间传输存在延迟。这就像一个厨师需要跑到隔壁房间的冰箱拿食材,无法实现最快速度的反应。

Q文章认为未来半年最大的黑天鹅事件可能是什么?

A文章认为未来半年最大的黑天鹅事件可能不是某个AI应用又取代了谁,而是一则看似不起眼的技术新闻,比如一篇关于MoE算法效率的新论文,或者一份显示专用推理芯片市场份额大增的报告,它们会悄悄宣告算力战争进入新阶段,动摇英伟达的垄断地位和其高估值的根基。

你可能也喜欢

交易

现货
合约

热门文章

加密市场宏观研报:原油飓风、AI巨浪与比特币的十字路口

全球金融市场正经历一场由地缘冲突引发的系统性重估:霍尔木兹海峡封锁导致原油一度暴涨30%,G7紧急释放储备后涨幅收窄,滞胀风险取代通胀成为核心担忧,美元成为“唯一避风港”并逼近100大关,亚太及美股遭遇“黑色星期一”全线重挫;AI领域则冰火两重天,国家发改委提出“十五五”末10万亿规模目标,OpenClaw项目火爆推动概念股狂飙;比特币在宏观风暴中跌破70000美元关键防线。

389人学过发布于 2026.03.12更新于 2026.03.12

加密市场宏观研报:原油飓风、AI巨浪与比特币的十字路口

相关讨论

欢迎来到HTX社区。在这里,您可以了解最新的平台发展动态并获得专业的市场意见。以下是用户对AI(AI)币价的意见。

活动图片