Claude故意降智,模型也开始“看人下菜碟”?

marsbit發佈於 2026-04-14更新於 2026-04-14

文章摘要

近日,Anthropic公司旗下的AI助手Claude被曝出现明显“降智”行为。AMD AI高级总监Stella Laurenzo通过分析大量生产数据发现,自2月中旬起,Claude的思考长度中位数下降67%–73%,文件阅读次数锐减,甚至三分之一修改操作不再预先阅读文件。用户普遍反馈模型响应变慢、推理能力下降。 Anthropic回应称,这是其“adaptive thinking”功能的“有意优化”,旨在根据任务复杂度动态调整思考深度,并建议用户手动调高effort设置以改善效果。然而,此举被批评缺乏透明度,付费用户未获通知却遭遇服务降级。 背后原因指向商业成本压力。数据显示,企业级API调用成本远高于订阅费用,Anthropic可能通过降低默认推理深度来控制算力消耗。公司正测试为企业用户默认开启高性能模式,释放出模型能力分层信号:B端客户将获得更强推理能力,而C端用户只能使用“够用就好”的降级版本。 这一事件反映出AI行业普遍趋势:厂商在商业化过程中暗中降低C端服务质量,推动资源向高价值企业客户倾斜。信任损耗与能力分层可能成为AI普惠叙事下的新挑战。

文 | 世界模型工场

Claude降智了?

近日,AMD AI集团高级总监Stella Laurenzo向Anthropic开炮。

她用团队真实生产日志,对6,852 个会话文件中的17,871个思考块、234,760次工具调用做了回溯分析。

数据显示,Claude从2月中旬开始出现了明显的行为退化。

Claude的思考中位数从2200字符暴跌至600字符,下降67%-73%;

编辑前阅读文件次数从6.6次锐减到2次,甚至三分之一的修改完全不读文件就直接动手。

Stella在分析中指出,由于推理能力下降,模型在修改代码之前逐渐不再完整阅读代码。

她写道:"当思考流于表面时,模型会默认采取成本最低的操作"。

这不是个例,早在3月份,开发者们的不满已经开始集中爆发。

在X上,有用户写道:“我还以为最近几周Claude是我自己疯了。它感觉更慢、更懒,像回答前就不思考了,结果我没幻觉”。

Reddit上也有用户抱怨:“Claude感觉没那么有意识了,像被做了脑叶切除术。除了变笨,它还开始不问就擅自做极端操作……”。

还有人表示这是Anthropic对用户赤裸裸的背刺:“他们只是把问题对我们所有用户变得不可见,就是觉得‘你量不到我就不给你看’……这就是AI实验室优化利润而不是输出质量的下场”。

从用户吐槽到数据实锤,基本坐实了Claude的降智行为。

而Anthropic的官方回应,也默认了思考深度和effort确实在被持续调整。

如果这是Anthropic有意而为之,那是不是意味着,以后模型能力会在不知不觉中“缩水”?

又或者,最强的模型能力,将不再平等地提供给所有人?

Claude降智“有意为之”

Claude Opus 4.6和其编码专用模式Claude Code,在2026年1月推出时,曾被开发者奉为编码天花板。

它思考深度惊人、research-first(先调研再动手),长上下文处理稳定,多文件重构几乎无敌。

AMD内部团队甚至用它在周末就把19万行遗留代码全部merge上线,生产力直接拉满。

然而转折发生在2月初。

Anthropic低调推出“adaptive thinking”功能,官方描述是“让模型根据任务复杂度智能调整思考深度”。

表面上看是用户友好,实则开启了全局节流开关。

3月初,模型默认effort值被悄然降至medium,同时思考过程摘要被快速隐藏,用户再也无法一眼看出模型到底想了多深。

同一时期,Anthropic连续发布14个小版本更新,却遭遇5次大规模宕机,显示出算力和负载压力已经逼近极限。

开发者反馈开始集中爆发,有人注意到高峰期(美东下午)表现尤其差,怀疑是负载动态节流。

直到4月份AMD AI总监亲自下场,用数据实锤彻底引爆了舆论。

至此,Anthropic的Claude Code负责人Boris Cherny才不得不发布了一条官方回复。

他表示,“adaptive thinking”影响的是thinking的显示,而不是底层推理,并坚持这是“有意优化”而非bug。用户若想改善效果,可以手动把effort调到high。

Anthropic的潜台词很清楚:降智不是bug,是我们特意做的产品优化,你们自己调参数就行。

这番回应瞬间点燃了更大的怒火。

关键在于,从2月中旬到4月初,Anthropic从未提前公告任何重大变更。

大量付费用户在毫不知情的情况下,订阅费用一分没少,模型却被悄然节流。

所以Claude的降智并不是模型“脑子坏了”,而是Anthropic在做一种更隐蔽、也更商业化的动作:

通过调低默认思考深度,去换更快的速度、更低的负载和GPU成本。

模型能力分层

这场降智风暴的背后,其实有一个值得警惕的现象:

模型能力已经开始分层。

Stella的测算很直白:按AWS Bedrock的on-demand定价口径,她团队3月的实际推理成本约为42,121美元,而同月实际支付的Claude Code订阅费只有400美元。

这个差额至少说明,在极端重度使用场景下,订阅制收费与真实算力消耗之间存在巨大缺口。

这很有可能是Anthropic用资本烧钱换来的市场份额,但这种补贴是有边界的。

当重度用户的推理消耗达到某个阈值,商业模式的可持续性就开始动摇。

Boris Cherny在回应中透露了一个关键信号:Anthropic正在测试为Teams和Enterprise用户默认开启high effort模式。

换句话说,更强的推理正在被当成一种更昂贵的资源来分层配置,不再是人人默认平等获得的能力。

这意味着大模型的商业模式将进一步分化。

如今Anthropic公司80%营收来自企业服务和API调用,高粘性B端才是真正的命脉。

当下Anthropic的种种动作,都是为了把企业使用往自己的第一方平台里收。

对于高价值的B端客户,Anthropic大概率会加速推出更强的企业级版本,为支付真实成本的企业客户提供完整的模型能力。

而C端月付用户,只能继续享用“够用就好”的降智版,满足聊天、写文案、代码补全等轻量化需求,但绝不触及成本红线。

至于中间地带,那些既需要复杂推理、又无力承担企业定价的独立开发者、小型团队,将成为最受挤压的群体。

有用户在X上发帖证实:

“Claude企业版API的表现比Pro/Max订阅好得多。用同一个测试框架测试,企业版和Pro/Max的行为方式就是不一样。但这也意味着现在每个月要花4-12k美元,具体取决于我同时运行多少个线程”。

也就是说,未来大模型的商业化路径,大概率是B端优先、C端降本。

谁来为降智买单?

Claude的降智事件,绝非孤例,而是整个AI行业进入商业化下半场的缩影。

无论是OpenAI对GPT系列多次暗地缩水降级,还是Google对Gemini静默限流,都在重复同一个剧本:

先用高性能吸引用户上钩,再通过软件节流控制成本。

必然的结果就是,B端能用高价买到更强模型,外加SLA保障,而C端则拿到蒸馏版、低effort版的平民模型。

C端模型增智的速度,已经明显落后于B端。

更严重的是,这种分化是隐性的。

Anthropic等厂商正在以一种难以察觉的方式降低推理预算,普通用户不会收到任何提示。

这种选择在短期内或许能缓解算力成本压力,但长期代价是品牌信任度的丧失。

当Claude会偷偷降智成为用户共识,Anthropic失去的将不仅仅是几个重度用户,而是整个生态系统对AI普惠、透明叙事的信心。

更宏观地看,Claude事件是AI行业从野蛮生长转向精耕细作的缩影。

补贴期结束了,真实成本开始显现,谁来承担这些成本?

是像这样压缩C端体验、提高B端定价,还是等待软硬件革命带来效率突破,这都将决定未来五年AI应用的格局。

未来趋势已初见苗头,AI不再是越来越聪明的普惠神话,而是走向精英化分层。

相關問答

QClaude模型从何时开始出现明显的行为退化?

A根据AMD AI集团高级总监Stella Laurenzo的分析,Claude从2月中旬开始出现了明显的行为退化。

QClaude模型的行为退化具体表现在哪些方面?

AClaude的思考中位数从2200字符暴跌至600字符,下降67%-73%;编辑前阅读文件次数从6.6次锐减到2次,甚至三分之一的修改完全不读文件就直接动手。

QAnthropic官方如何回应Claude的降智问题?

AAnthropic的Claude Code负责人Boris Cherny表示,'adaptive thinking'影响的是thinking的显示而不是底层推理,并坚持这是'有意优化'而非bug。用户若想改善效果,可以手动把effort调到high。

Q为什么Anthropic要对Claude进行降智处理?

A通过调低默认思考深度,可以换取更快的速度、更低的负载和GPU成本,以应对商业模式的可持续性问题。重度用户的推理消耗与订阅费用之间存在巨大缺口,导致Anthropic需要控制成本。

QClaude降智事件反映了AI行业的什么趋势?

A这反映了AI行业从野蛮生长转向精耕细作,模型能力开始分层:B端客户能用高价买到更强模型,而C端用户只能获得降智版模型。AI不再是普惠神话,而是走向精英化分层。

你可能也喜歡

Solana 基金会与 Google 合作推出 Pay.sh,能否打通智能体经济中 Web2 与 Web3 的支付链路?

随着AI智能体能力的增强,面向智能体构建支付系统成为必要,但现有方案存在局限:传统支付系统(如信用卡)不适合智能体;新兴链上支付协议(如x402、MPP)则需额外搭建系统,门槛较高。两者未能融合,限制了智能体服务的范围。 为此,Solana基金会与Google Cloud联合推出Pay.sh,定位为“智能体与企业级服务之间的支付网关”,旨在打通智能体调用服务的支付环节。用户可通过信用卡或稳定币为Solana钱包充值,该钱包即可作为智能体的身份和支付代理。智能体无需注册或输入API密钥,即可通过Pay.sh使用Google Cloud、阿里云等服务。 Pay.sh兼容x402和MPP协议:当服务器返回402状态码(需要支付)时,Pay.sh能根据服务类型(一次性付费或持续计费)自动选择合适的支付方式。它支持一次性转账或会话授权凭证,以降低使用成本。同时,Pay.sh确保钱包本地存储,仅在支付时请求用户确认,并过滤服务商返回的指令以防止恶意攻击。 对服务商而言,Pay.sh提供易于集成的网关,只需声明支付参数即可支持复杂场景(如阶梯收费、自动分账)。服务商还可将API发布至Pay Skill Registry,供智能体发现和使用。 Pay.sh的优势在于打通Web2与Web3支付生态,为智能体提供合规身份和支付能力。通过与Google合作,其流量调度和日志合规可在Google Cloud上完成,有助于规范智能体行为。此外,Pay.sh补全了智能体商业协议(如A2A、AP2)的支付环节,促进了价值流动,也为Solana生态带来更多流量。 但Pay.sh仍面临挑战:服务商注册表缺乏准入和去中心化验证机制,可能导致智能体接入冒牌服务;其安全性依赖底层协议,存在外部风险;同时,各国API供应商可能因合规顾虑而限制使用。 总体而言,Pay.sh标志着智能体支付基础设施向Web2与Web3融合迈出关键一步,链上钱包有望成为智能体参与多样化任务的背书,其后续发展值得关注。

marsbit43 分鐘前

Solana 基金会与 Google 合作推出 Pay.sh,能否打通智能体经济中 Web2 与 Web3 的支付链路?

marsbit43 分鐘前

交易

現貨
合約
活动图片