和美国AI「御三家」聊DeepSeekV4和美团LongCat,有意外收获

marsbitPublished on 2026-04-28Last updated on 2026-04-28

随着DeepSeek-V4的发布,我问了一下闭源大模型的「御三家」如何看待这个竞争对手,它们各自的表态很有意思:

GPT-5.5比较「傲娇」,强调不是一次「终结比赛」的事件,但要「盯紧」这个对手,承认便宜的百万级上下文,会对整个行业都造成压力。

Gemini 3.1则是个「实诚人」,定性DeepSeek-V4属于「掀桌子」级别的危险竞品,当开源模型在自己的舒适区展现出巨大统治力时,「压迫感是极其真实的」。

Claude Opus 4.7显得最「从容」,表态「高兴对于不安」,甚至直言如果DeepSeek-V4在某些任务场景更好用那就切过去,自己「不需要在每件事上都是最优解」。

三个模型之间的细微差别,其实也和各家公司的风格高度相关,OpenAI的狂躁色彩,Google的家大业大,Anthropic的学究气质,完全吻合有没有?

除了DeepSeek V4,同一天,美团也开放测试了新的万亿级参数大模型LongCat-2.0-Preview,在继续向「御三家」追问时,话题开始拐向对于国产算力集群的惊讶,这就更有看点了。

简单来说,从今年开始,中国第一梯队的大模型,已经无碍的放在了数以万计的国产芯片上去做训练,不再是有限尺寸的小打小闹,也没有避重就轻的「只谈推理、不接训练」了。

这在过去被普遍认为是不可能实现的全链路替代,只能说一座冰山的水下体积,要数十倍于能够看到的大小。

行到水穷处,坐看云起时,看岁月之峥嵘啊。

1

前段时间,黄仁勋做客一档播客的对话切片火了。

因为从画面来看,老黄肉眼可见的急了,在关于英伟达迫切想把芯片卖给中国是不是在「资敌」这个话题上,两人竟然聊出了火药味。

黄仁勋连续用了「Childish」(幼稚)这个词来打断主持人的预设立场,并抛出了后来被各家媒体写进标题的那段话:

「如果DeepSeek的新模型首先在华为的芯片上发布,对于美国来说是一个相当糟糕的结果。」

考虑到播客录制的时间,黄仁勋言辞里的「如果」是多余的,因为这在行业里早就是一个公开的秘密了,实际上DeepSeek-V4发布的多次跳票,就是因为要花更多的时间适配国产芯片集群。

所以并没有什么「黄仁勋担心的事情终于成了事实」,他很清楚,自己是在「基于既定事实而去借题发挥」。

所以在上头时,黄仁勋几乎是在以一种斥责的口吻,批评主持人的禁运论及其支持者,认为这是一种失败主义的表现,美国根本不相信自己能够赢得竞争,所以要用拆台的手段,去遏制中国。

有人用视频模型整活,演绎了当时的「真实」气氛,你们可以感受一下:

无论如何,黄仁勋的即兴演出,可能会注定载入AI发展的史册,尤其是对于那些奋力越过山丘的国行模型厂商而言,自己说自己做对了,还不是那么有说服力,来自对手的肯定,才是货真价实的认证。

就,有一种脚下有路、心里有底的滋味。

2

算上DeepSeek-V4和美团LongCat-2.0-Preview,在全球范围内的万亿级参数模型数量上,中国也是第一次超过了美国,站在了「多数派」的一边。

在前些年的最高点,新加坡消费了英伟达近三成的GPU出口,这显然不是新加坡人突然有了拿芯片泡酒喝的兴致,如果不是特别无知的话,就得承认「转口贸易」其实占了很大比重。

训练领先的模型,尤其是大规模参数的模型,离不开英伟达的卡,这在行业里曾是雷打不动的常识。

但在今年这个晚春,那些曾经坚固的铁律,一条接着一条开始松动。

DeepSeek-V4和国产芯片进行了前所未有的深度适配,是大家都已经知道的了,相比它做这件事情的「政治正确」或是「历史使命」,美团的「主动为之」也很值得注意。

美团启动测试的LongCat-2.0-Preview,只看训练规模的话,可能创下了国产算力的新纪录。

据我所知,美团对国产算力的重视,已经持续许久了。通过几年前开始陆续投资半导体领域的那十多家公司,就能看出来——从新材料到圆晶制造,从芯片设计到TPU,不是明星级的头部企业,就是产业内的隐形冠军。

除了为自身的AI战略铺路,也客观上为国产算力贡献了充足的弹药。

现在的情况是,英伟达高端GPU在中国的名义市占率始终是零,却有两个国产的万亿级大模型同一天发布了。

万亿参数,不再是海外大厂的特权了。

3

去年的这个时候,Anthropic一直在抨击大厂囤积算力是「不负责任」的行为,虽然现在已经在被疯狂打脸了——Codex三天两头重置额度,从Claude Code这里骑脸抢人——但在当初的说法里,有一个理由其实是站得住的:

「你把未来一两年的芯片全买光,小公司根本拿不到卡,AI变成少数巨头的游戏,这是反竞争、反创新。」

之所以「天下苦英伟达久矣」,并非大家对这家公司天然抱有憎恶,而是在奇货可居的供需关系里,英伟达把铲子卖出了比金子更高的价格,这一定不合理。

甲骨文的老板埃里森曾说他和马斯克一起去约黄仁勋吃漂亮饭,全程两人几乎就只是在翻来覆去的说一句话:

「求你了,把钱收下。」

事实证明,有竞争是好事,自从Google的TPU被证明可堪大任以来,市场对于英伟达的垄断预期就有了挥之不去的疑虑,加上中国自主芯片集群成功托了新一代大模型,变数就更大了。

要知道,美团的主营业务战火正酣,AI又是个需要持续砸钱的业务,却依然能够掏出LongCat-2.0-Preview这种水平的模型,足以说明国产算力的经济性和第二选择有价值。

在技术社区Linux DO上,已经有开发者对LongCat-2.0-Preview表达了惊喜,「起码美团还在真做事情。」

很多新的地图,都是从一条不起眼的小路画起的。。

4

脱离英伟达苦心经营的生态,不是没有代价的,而DeepSeek-V4和LongCat-2.0-Preview要克服难以想象的困难:

之所以一直强调万亿级参数,是因为参数越大,对显存容量和带宽的要求更高,需要重构整个软硬件的协同工程;

更不用说CUDA的泛用性,模型团队需要针对国产芯片特性重写和优化核心算子,甚至自研全确定性的算子,以确保训练全程的精确可复现;

承认短期差距并不丢人,在万卡集群上长期训练,硬件故障是必然而非意外的,所以需要同步构建完整的容错、检测与恢复体系;

如果效率上不去,成本就是笑谈,要跑通全链路,就必须针对国产环境的特点,对训练框架和模型结构实现亲和设计,确保性能可以满足需求。

⋯⋯路虽远,行则将至。

公允的讲,自从DeepSeek-V3震惊世界以来又过去了一年多的时间,大家希望看到的开源模型赶超闭源模型的画面依然没有出现,Anthropic的年化收入屡创新高也在说明「一分钱一分货」的基本规律。

国产模型的任重道远和弯道超车,恐怕还是要结合中国产业结构的优势进行,我们的无人机、无人车、机器人乃至工业规模,都在真实生产层面拥有全球独一档的稀缺数据。

这些连接万物的场景,可以为芯片厂商提供长期连续、真实负载的场景,来验证芯片的稳定性和可靠性。

上半场拼算力资源,下半场比物理底座,时间还很长,长到足以产生任何结果的可能性。

本文来自微信公众号 “阑夕”(ID:techread),作者:阑夕

Related Reads

Trading

Spot
Futures

Hot Articles

Discussions

Welcome to the HTX Community. Here, you can stay informed about the latest platform developments and gain access to professional market insights. Users' opinions on the price of AI (AI) are presented below.

活动图片