Văn | Công xưởng Mô hình Thế giới
Claude giảm trí thông minh?
Gần đây, Giám đốc cấp cao tập đoàn AI của AMD, Stella Laurenzo, đã chỉ trích Anthropic.
Bà ấy đã sử dụng nhật ký sản xuất thực tế của nhóm để phân tích hồi tố 17.871 khối suy nghĩ trong 6.852 tệp phiên làm việc, với 234.760 lần gọi công cụ.
Dữ liệu cho thấy, Claude đã bắt đầu có biểu hiện suy giảm rõ rệt từ giữa tháng 2.
Độ dài trung vị trong suy nghĩ của Claude đã giảm mạnh từ 2200 ký tự xuống còn 600 ký tự, giảm 67%-73%;
Số lần đọc tệp trước khi chỉnh sửa giảm mạnh từ 6,6 lần xuống còn 2 lần, thậm chí một phần ba số lần sửa đổi hoàn toàn không đọc tệp mà trực tiếp thao tác.
Stella chỉ ra trong phân tích rằng, do khả năng suy luận giảm, mô hình dần dần không đọc đầy đủ mã code trước khi sửa đổi.
Bà viết: "Khi dòng suy nghĩ chỉ hời hợt, mô hình sẽ mặc định thực hiện thao tác có chi phí thấp nhất".
Đây không phải là trường hợp cá biệt, từ tháng 3, sự bất mãn của các nhà phát triển đã bắt đầu bùng nổ tập trung.
Trên X, một người dùng viết: "Tôi còn tưởng vài tuần gần đây mình bị điên vì Claude. Nó có cảm giác chậm hơn, lười hơn, như thể không suy nghĩ trước khi trả lời, kết quả là tôi không bị ảo giác".
Trên Reddit cũng có người dùng phàn nàn: "Claude cảm giác không còn nhiều ý thức nữa, như bị cắt thùy não. Ngoài việc trở nên ngu ngốc hơn, nó còn bắt đầu tự ý thực hiện các thao tác cực đoan mà không hỏi…".
Lại có người cho rằng đây là sự phản bội trắng trợn của Anthropic đối với người dùng: "Họ chỉ làm cho vấn đề trở nên vô hình với tất cả người dùng chúng ta, kiểu 'bạn không đo được thì tôi không cho bạn xem'… Đây là kết quả của việc phòng thí nghiệm AI tối ưu hóa lợi nhuận thay vì chất lượng đầu ra".
Từ những lời phàn nàn của người dùng đến dữ liệu chứng minh, về cơ bản đã xác thực hành vi giảm trí thông minh của Claude.
Và phản hồi chính thức của Anthropic cũng thừa nhận rằng độ sâu suy nghĩ và nỗ lực (effort) thực sự đang được điều chỉnh liên tục.
Nếu đây là điều Anthropic cố ý làm, vậy thì có phải意味着, trong tương lai, năng lực mô hình sẽ bị “teo nhỏ” trong vô thức?
Hay là, năng lực mô hình mạnh nhất sẽ không còn được cung cấp một cách bình đẳng cho tất cả mọi người?
Claude giảm trí thông minh là “cố ý”
Claude Opus 4.6 và chế độ chuyên về mã hóa Claude Code của nó, khi được ra mắt vào tháng 1 năm 2026, từng được các nhà phát triển tôn sùng là trần nhà của lĩnh vực mã hóa.
Nó có độ sâu suy nghĩ đáng kinh ngạc, research-first (nghiên cứu trước rồi mới làm), xử lý ngữ cảnh dài ổn định, tái cấu trúc đa tệp gần như vô địch.
Nhóm nội bộ của AMD thậm chí còn sử dụng nó để merge toàn bộ 190.000 dòng code legacy lên production chỉ trong ngày cuối tuần, năng suất được kéo lên tối đa.
Tuy nhiên, bước ngoặt xảy ra vào đầu tháng 2.
Anthropic đã lặng lẽ ra mắt tính năng "adaptive thinking" (suy nghĩ thích ứng), mô tả chính thức là "cho phép mô hình điều chỉnh độ sâu suy nghĩ một cách thông minh dựa trên độ phức tạp của nhiệm vụ".
Bề ngoài có vẻ thân thiện với người dùng, nhưng thực chất đã bật công tắc tiết kiệm toàn cục.
Đầu tháng 3, giá trị nỗ lực (effort) mặc định của mô hình đã được âm thầm giảm xuống mức medium, đồng thời bản tóm tắt quá trình suy nghĩ bị ẩn đi nhanh chóng, người dùng không thể nhìn thấy ngay mô hình đã suy nghĩ sâu đến mức nào.
Cùng thời kỳ này, Anthropic liên tục phát hành 14 bản cập nhật nhỏ, nhưng lại gặp phải 5 lần ngừng hoạt động quy mô lớn, cho thấy áp lực tính toán và tải đã tiệm cận giới hạn cực đại.
Phản hồi từ nhà phát triển bắt đầu bùng nổ tập trung, một số người nhận thấy hiệu suất đặc biệt kém vào giờ cao điểm (chiều giờ EST), nghi ngờ là do tiết kiệm năng lượng động theo tải.
Mãi đến tháng 4, khi giám đốc AI của AMD tự mình xuất chiến, sử dụng dữ liệu chứng minh thực tế, đã châm ngòi cho làn sóng dư luận.
Đến lúc này, Boris Cherny, người phụ trách Claude Code của Anthropic, mới buộc phải đưa ra một phản hồi chính thức.
Ông tuyên bố, "adaptive thinking" ảnh hưởng đến việc hiển thị suy nghĩ (thinking), chứ không phải quá trình suy luận cơ bản, và khẳng định đây là "tối ưu hóa có chủ ý" chứ không phải lỗi. Người dùng muốn cải thiện hiệu quả có thể tự điều chỉnh effort lên high.
Hàm ý của Anthropic rất rõ ràng: Giảm trí thông minh không phải là lỗi, mà là tối ưu hóa sản phẩm chúng tôi đặc biệt thực hiện, các bạn tự điều chỉnh tham số là được.
Phản hồi này ngay lập tức châm ngòi cho một cơn thịnh nộ lớn hơn.
Điểm mấu chốt là, từ giữa tháng 2 đến đầu tháng 4, Anthropic chưa từng thông báo trước bất kỳ thay đổi lớn nào.
Một lượng lớn người dùng trả phí, trong tình trạng hoàn toàn không biết gì, đóng phí đăng ký không thiếu một đồng, nhưng mô hình lại bị âm thầm tiết giảm.
Vì vậy, việc giảm trí thông minh của Claude không phải là do mô hình "hỏng não", mà là Anthropic đang thực hiện một động thái tinh vi hơn và cũng mang tính thương mại hóa hơn:
Bằng cách điều chỉnh giảm độ sâu suy nghĩ mặc định, để đổi lấy tốc độ nhanh hơn, tải thấp hơn và chi phí GPU thấp hơn.
Phân tầng năng lực mô hình
Đằng sau cơn bão giảm trí thông minh này, thực ra có một hiện tượng đáng cảnh giác:
Năng lực mô hình đã bắt đầu được phân tầng.
Tính toán của Stella rất rõ ràng: Theo khẩu độ định giá on-demand của AWS Bedrock, chi phí suy luận thực tế của nhóm bà trong tháng 3 vào khoảng 42.121 đô la, trong khi phí đăng ký Claude Code thực tế phải trả trong cùng tháng chỉ có 400 đô la.
Chênh lệch này ít nhất cho thấy, trong các tình huống sử dụng nặng cực độ, tồn tại một khoảng cách lớn giữa phí đăng ký theo định kỳ và mức tiêu thụ năng lực tính toán thực tế.
Điều này rất có thể là do Anthropic dùng vốn đốt tiền để đổi lấy thị phần, nhưng trợ cấp kiểu này là có giới hạn.
Khi mức tiêu thụ suy luận của người dùng nặng đạt đến một ngưỡng nào đó, tính bền vững của mô hình kinh doanh bắt đầu lung lay.
Boris Cherny trong phản hồi đã tiết lộ một tín hiệu then chốt: Anthropic đang thử nghiệm chế độ high effort mặc định cho người dùng Teams và Enterprise.
Nói cách khác, khả năng suy luận mạnh hơn đang được coi như một nguồn tài nguyên đắt đỏ hơn để cấu hình phân tầng, không còn là năng lực mà mọi người mặc định nhận được một cách bình đẳng.
Điều này có nghĩa là mô hình kinh doanh của các mô hình lớn sẽ tiếp tục phân hóa hơn nữa.
Hiện nay, 80% doanh thu của công ty Anthropic đến từ dịch vụ doanh nghiệp và các lệnh gọi API, phía B端 (doanh nghiệp) có độ gắn kết cao mới thực sự là mạch máu.
Những động thái gần đây của Anthropic đều nhằm mục đích thu hút việc sử dụng của doanh nghiệp vào nền tảng first-party của chính mình.
Đối với những khách hàng B端 có giá trị cao, Anthropic rất có thể sẽ đẩy nhanh việc ra mắt các phiên bản cấp doanh nghiệp mạnh hơn, cung cấp năng lực mô hình đầy đủ cho các khách hàng doanh nghiệp chi trả chi phí thực tế.
Còn người dùng C端 (cá nhân) trả phí hàng tháng, chỉ có thể tiếp tục tận hưởng phiên bản giảm trí thông minh "đủ dùng là được", đáp ứng nhu cầu nhẹ nhàng như trò chuyện, viết văn bản, bổ sung code, nhưng tuyệt đối không chạm đến giới hạn chi phí.
Đối với vùng trung gian, những nhà phát triển độc lập, nhóm nhỏ vừa cần suy luận phức tạp, vừa không đủ khả năng chi trả giá doanh nghiệp, sẽ trở thành nhóm bị ép nhất.
Một người dùng trên X đã đăng bài xác nhận:
"Hiệu suất của API phiên bản doanh nghiệp Claude tốt hơn nhiều so với đăng ký Pro/Max. Dùng cùng một khung kiểm tra để test, hành vi của phiên bản doanh nghiệp và Pro/Max就是不一样 (vốn dĩ là khác nhau). Nhưng điều này cũng có nghĩa là bây giờ phải chi 4-12k đô la mỗi tháng, tùy thuộc vào số lượng luồng tôi chạy đồng thời".
Tức là, con đường thương mại hóa của các mô hình lớn trong tương lai, phần lớn sẽ là ưu tiên B端, giảm chi phí cho C端.
Ai sẽ trả giá cho việc giảm trí thông minh?
Sự kiện giảm trí thông minh của Claude tuyệt đối không phải là trường hợp cá biệt, mà là hình ảnh thu nhỏ của toàn ngành AI bước vào nửa cuối của quá trình thương mại hóa.
Cho dù là OpenAI多次暗中缩水降级 (nhiều lần giảm cấp, teo nhỏ một cách lén lút) đối với series GPT, hay Google静默限流 (giới hạn lưu lượng một cách im lặng) đối với Gemini, đều đang lặp lại cùng một kịch bản:
Trước tiên dùng hiệu suất cao để thu hút người dùng câu, sau đó thông qua phần mềm tiết kiệm để kiểm soát chi phí.
Kết quả tất yếu là, B端 có thể dùng giá cao để mua mô hình mạnh hơn,外加 (cộng thêm) đảm bảo SLA, còn C端 thì nhận được mô hình bình dân phiên bản chưng cất, effort thấp.
Tốc độ tăng trí thông minh của mô hình C端 đã明显落后于 (tụt hậu rõ ràng so với) B端.
Nghiêm trọng hơn, sự phân hóa này là ẩn tính (implicit).
Anthropic và các nhà sản xuất khác đang giảm ngân sách suy luận theo một cách khó nhận biết, người dùng thông thường sẽ không nhận được bất kỳ thông báo nào.
Lựa chọn này trong ngắn hạn có lẽ能缓解 (có thể làm dịu) áp lực chi phí tính toán, nhưng cái giá dài hạn là sự đánh mất niềm tin vào thương hiệu.
Khi việc Claude secretly giảm trí thông minh trở thành nhận thức chung của người dùng, thứ Anthropic mất đi sẽ không chỉ là vài người dùng nặng, mà là sự tin tưởng của toàn bộ hệ sinh thái vào叙事 (tường thuật) về AI phổ cập và minh bạch.
Nhìn một cách vĩ mô hơn, sự kiện Claude là hình ảnh thu nhỏ của ngành AI chuyển từ giai đoạn tăng trưởng bùng nổ sang giai đoạn canh tác tinh tế.
Thời kỳ trợ cấp đã kết thúc, chi phí thực tế bắt đầu lộ rõ, ai sẽ gánh chịu những chi phí này?
Là nén trải nghiệm C端、提高 (nâng cao) định giá B端 như thế này, hay là chờ đợi cuộc cách mạng phần cứng phần mềm mang lại đột phá về hiệu suất, tất cả điều này sẽ quyết định cục diện ứng dụng AI trong năm năm tới.
Xu hướng tương lai đã lấp ló, AI不再 (không còn) là câu chuyện thần kỳ phổ cập ngày càng thông minh, mà là đi towards (về phía) sự phân tầng tinh anh.






