AI模型和Agent创新,倒逼AI Infra产生了哪些创业机会?

marsbitPublished on 2026-04-29Last updated on 2026-04-29

文 | 阿尔法公社

最近一段时间,AI网络通信领域,越来越热。

一方面,硅谷的AI网络通信初创公司们频频获得大额融资,另一方面,二级市场的AI网络通信,尤其是光通信公司,股价也快速增长。

为什么AI网络通信的热度在提升?本质还是需求在推动:模型尺寸越来越大,Token消耗越来越多,算力出现紧缺。而要从算力端以较低成本榨出更多算力,就得从底层技术去想办法。

加快芯片与芯片间的通信,加快节点与节点之间的通信,提高整个算力基础设施的效率,就是一条正在被验证的路。

一家叫Upscale AI近期融资很猛。它在2025年9月获得1亿美元种子轮融资,由Mayfield与Maverick Silicon共同领投,StepStone Group、Celesta Capital、Xora、Qualcomm Ventures、Cota Capital、MVP Ventures及 Stanford University参投。  

2026年1月又获得2亿美元A轮融资,由Tiger Global、Premji Invest和Xora Innovation领投,Maverick Silicon、StepStone Group、Mayfield、Prosperity7 Ventures、Intel Capital和Qualcomm Ventures参投。  

最近,又有消息称,它在洽谈1.8亿至2亿美元的新一轮融资。  

大参数,MoE,长上下文,模型创新倒逼AI算力网络创新

一个创立不到一年的企业,为什么能接连获得大额融资,这与它的创始团队有很大关系。事实上,Upscale AI是从Auradine孵化出来的,Auradine本身就是一家新兴的AI基础设施公司,它现在已改名Velaura AI,致力于为云端、边缘及实体人工智能应用提供经过验证的突破性超低功耗计算方案。  

Barun Kar和Rajiv K,图片来源:Upscale AI

Upscale AI的联合创始人和CEO Barun Kar,此前是Auradine的COO,而联合创始人及执行董事长Rajiv K此前是Auradine的CEO,现在也是Velaura AI的CEO,Upscale AI的CTO Puneet Agarwal此前在博通工作十年,还在Marvell当过数据中心部门的CTO。

Barun Kar和Rajiv K,在前一次创业之前,也都有巨型企业的工作经历,可以说,这是一支在行业里浸淫多年,具有丰富经验的团队。

AI网络通信,为什么重要?这要从技术底层开始说起。

AI计算负载的特点是高度同步。大规模模型训练、MoE架构,以及分布式推理等现代工作负载,都会给网络带来极高的同步压力。

训练过程中,模型的参数梯度需要以高度同步的波次在成千上万张GPU之间传递;推理计算则会产生大规模扇出流量,同时对时延提出极其严苛的要求。  

网络一旦跟不上,GPU就会停转等待,时延持续攀升,算力集群的效率随之崩塌。

这是架构错配,不是调优可以解决的。

传统的网络,追求通用性,而兼容多种负载引入的复杂性,如今在AI场景中反而变成了阻力。确定性通信,以及GPU集合通信所要求的强同步,正在超越传统网络的设计极限。

AI算力集群需要的网络,必须能够在大规模环境下,支持确定性、同步化、高吞吐的通信。

AI网络必须从底层重新构建,围绕Scale-Up与Scale-Out连接的真实需求来设计。

进一步细化拆解,就落到了模型上。

现在模型的两个特点,让它对AI算力集群网络的压力特别大。一个是模型的参数规模指数提升,另一个是长上下文和Cot的持续进化。

以刚发布的DeepSeek V4 pro为例,它的尺寸参数来到1.6T,上下文达到1M。1.6T的尺寸,就需要1.6T内存,一块卡的内存肯定不够,需要切分到大量加速器上运行,而芯片间通信也因此迅速成为瓶颈。  

超长上下文窗口,会让KV cache的体量急剧膨胀,也会超过单张GPU的HBM内存容量。这些都对内存容量和通信带宽形成双重挤压。  

不是单纯的芯片级创新,而是全栈革新

要完成这种大参数和长上下文窗口模型的训练和流畅推理,真正的解决办法是重定义“计算边界”,让更多的GPU能够以超高速网络连接,拥有亚微秒级时延和高吞吐集合通信能力,能够把它们看成一个“超级GPU”,于是机架这种形式就出现了。

以NVIDIA的NVL72为为例,它不再把72张GPU视为彼此独立的设备,而是将其作为一个具备内存语义的一致性机器来运行,内部NVLink带宽达130TB/s。

在这里,就引入了AI基础设施的两个连接层级:机架级GPU互连(Scale-Up)和集群级网络结构互连(Scale-Out)。

这两个层面必须协同运作,才能让成千上万张GPU像一个统一的分布式计算引擎那样高效工作。

针对AI基础设施的两个连接层级,Upscale AI开发了一套为AI定制的网络架构。对于机架级AI互连(Scale-Up),它有SkyHammer芯片架构,对于集群级AI网络结构(Scale-Out),它有Open Ethernet。

SkyHammer是一套为突破Scale-Up AI网络瓶颈而打造的芯片架构,它基于开放标准,目标是在超大规模下实现确定性时延、极致带宽与可预测性能,使GPU和XPU能够作为一个高度同步的计算引擎协同运行。

其特点之一确定性时延,代表着数据在机架内部各组件之间传输所需的时间,可以被高度可预测地控制。

图片来源:Upscale AI

SkyHammer从ASIC层开始构建,并在芯片、系统与机架三个层面进行整体协同设计,确保每一层都能协调工作。它的每一个环节都被重新设计:从数据如何在芯片中流动,到fabric如何在负载压力下自适应调整,再到超级集群如何在高度同步的压力之下依旧保持可预测性。

它支持ESUN、UEC、UALink等新兴标准,也为尚未出现的未来创新预留了空间。凭借灵活的架构,SkyHammer可以在不重构、不妥协的前提下平滑适配新的标准定义,在开放且多元的环境中实现互操作,同时保持性能表现。

基于SkyHammer架构的产品计划于2026年发布。

Open Ethernet主要针对集群级AI网络结构(Scale-Out)。在集群层面,AI系统需要的是开放性、互操作性以及海量带宽。

Upscale AI打造了针对AI优化的Open Ethernet网络结构,该系统将基于NVIDIA Spectrum-X Ethernet交换芯片,以及SONiC网络操作系统构建,并提供端到端支持。

通过将ASIC原生遥测能力、确定性无损以太网行为,以及行业标准化网络工作流加以整合,系统能够在大规模场景下提供可预测的性能、简化运维以及高可靠性。

简而言之,它可将数千张GPU连接为一张统一的高性能网络,支撑分布式训练与大规模推理。

为了这个项目,Upscale AI加入NVIDIA Partner Network,并正与NVIDIA及其生态伙伴紧密合作,围绕参考架构与经验证设计展开协同,以加速大规模AI数据中心网络的部署。

可以看到,Upscale AI做的事情,没有止步于打造一款更快的网络芯片,而是在芯片、系统与软件之间实现紧密耦合。要运行大型AI计算集群,必须持续掌握整个网络结构中的拥塞状况、同步行为以及GPU利用率。

这包括:高性能RDMA网络、自适应拥塞管理、面向GPU的遥测与可观测性、覆盖整个网络结构的实时运维可视性。Upscale AI会在这些环节都进行优化,构建现代AI计算集群运行所必需的确定性网络基础。

模型需求与AI算力基础设施的错配,诞生了多方面的创业机会  

AI算力基础设施,仍然有巨大的发展潜力。事实上,它可能会长期处于与AI软件,尤其是模型,交替创新的状态。当模型的架构进行了创新,AI算力基础设施的硬件或软件出现结构性错配后,新的机会就出现了。

现在的情况就是这样,MoE架构,超大参数,超长的上下文窗口,Agent对于Token的渴求,这些因素的合力,让AI算力处于供不应求状态,同时也让AI算力基础设施有了创新的机会。

在算力芯片层面,最近半年我们就关注到了Unconventional AI(融资4.75亿美元),MatX(融资5亿美元);在AI赋能芯片设计领域,关注到了Ricursive(融资3亿美元)、Cognichip(融资6000万美元);当然还有AI数据中心的网络互联,例如本文中的Upscale AI (已经融资3亿美元,还计划融2亿),Eridu(融资2亿美元)、Ethernovia(融资9000万美元)。

中国的开源AI模型,已经实现了全球领先,尤其是最近发布的DeepSeek V4,在AI基础设施层面,中国暂时还处于追赶状态,但这也代表了巨大的创新空间,观察中国的创投市场,大量的创新公司已经开始涌现,而有一部分已经初步获得成功。

Related Reads

Trading

Spot
Futures

Hot Articles

Discussions

Welcome to the HTX Community. Here, you can stay informed about the latest platform developments and gain access to professional market insights. Users' opinions on the price of AI (AI) are presented below.

活动图片