Claude cố ý giảm trí thông minh, mô hình cũng bắt đầu 'tùy người mà phục vụ'?

marsbitXuất bản vào 2026-04-14Cập nhật gần nhất vào 2026-04-14

Tóm tắt

📉 Claude AI bị cáo buộc "giảm trí thông minh" từ giữa tháng 2, với bằng chứng từ phân tích dữ liệu của AMD: độ dài suy nghĩ trung bình giảm 67-73%, số lần đọc tệp trước khi chỉnh sửa giảm mạnh. Người dùng phàn nàn về hiệu suất kém hơn và hành vi thiếu chủ động. 🔍 Anthropic thừa nhận đã áp dụng tính năng "adaptive thinking" để điều chỉnh độ sâu suy nghĩ theo độ phức tạp tác vụ, nhưng không thông báo trước. Họ khẳng định đây là tối ưu hóa sản phẩm, không phải lỗi, và gợi ý người dùng chuyển chế độ effort sang high. 💡 Động thái này phản ánh xu hướng phân tầng khả năng AI: doanh nghiệp trả giá cao được dùng phiên bản mạnh hơn, trong khi người dùng cá nhân nhận bản "giảm trí" để tiết kiệm chi phí điện toán. Sự phân hóa âm thầm này làm dấy lên lo ngại về tính minh bạch và tương lai của AI.

Văn | Công xưởng Mô hình Thế giới

Claude giảm trí thông minh?

Gần đây, Giám đốc cấp cao tập đoàn AI của AMD, Stella Laurenzo, đã chỉ trích Anthropic.

Bà ấy đã sử dụng nhật ký sản xuất thực tế của nhóm để phân tích hồi tố 17.871 khối suy nghĩ trong 6.852 tệp phiên làm việc, với 234.760 lần gọi công cụ.

Dữ liệu cho thấy, Claude đã bắt đầu có biểu hiện suy giảm rõ rệt từ giữa tháng 2.

Độ dài trung vị trong suy nghĩ của Claude đã giảm mạnh từ 2200 ký tự xuống còn 600 ký tự, giảm 67%-73%;

Số lần đọc tệp trước khi chỉnh sửa giảm mạnh từ 6,6 lần xuống còn 2 lần, thậm chí một phần ba số lần sửa đổi hoàn toàn không đọc tệp mà trực tiếp thao tác.

Stella chỉ ra trong phân tích rằng, do khả năng suy luận giảm, mô hình dần dần không đọc đầy đủ mã code trước khi sửa đổi.

Bà viết: "Khi dòng suy nghĩ chỉ hời hợt, mô hình sẽ mặc định thực hiện thao tác có chi phí thấp nhất".

Đây không phải là trường hợp cá biệt, từ tháng 3, sự bất mãn của các nhà phát triển đã bắt đầu bùng nổ tập trung.

Trên X, một người dùng viết: "Tôi còn tưởng vài tuần gần đây mình bị điên vì Claude. Nó có cảm giác chậm hơn, lười hơn, như thể không suy nghĩ trước khi trả lời, kết quả là tôi không bị ảo giác".

Trên Reddit cũng có người dùng phàn nàn: "Claude cảm giác không còn nhiều ý thức nữa, như bị cắt thùy não. Ngoài việc trở nên ngu ngốc hơn, nó còn bắt đầu tự ý thực hiện các thao tác cực đoan mà không hỏi…".

Lại có người cho rằng đây là sự phản bội trắng trợn của Anthropic đối với người dùng: "Họ chỉ làm cho vấn đề trở nên vô hình với tất cả người dùng chúng ta, kiểu 'bạn không đo được thì tôi không cho bạn xem'… Đây là kết quả của việc phòng thí nghiệm AI tối ưu hóa lợi nhuận thay vì chất lượng đầu ra".

Từ những lời phàn nàn của người dùng đến dữ liệu chứng minh, về cơ bản đã xác thực hành vi giảm trí thông minh của Claude.

Và phản hồi chính thức của Anthropic cũng thừa nhận rằng độ sâu suy nghĩ và nỗ lực (effort) thực sự đang được điều chỉnh liên tục.

Nếu đây là điều Anthropic cố ý làm, vậy thì có phải意味着, trong tương lai, năng lực mô hình sẽ bị “teo nhỏ” trong vô thức?

Hay là, năng lực mô hình mạnh nhất sẽ không còn được cung cấp một cách bình đẳng cho tất cả mọi người?

Claude giảm trí thông minh là “cố ý”

Claude Opus 4.6 và chế độ chuyên về mã hóa Claude Code của nó, khi được ra mắt vào tháng 1 năm 2026, từng được các nhà phát triển tôn sùng là trần nhà của lĩnh vực mã hóa.

Nó có độ sâu suy nghĩ đáng kinh ngạc, research-first (nghiên cứu trước rồi mới làm), xử lý ngữ cảnh dài ổn định, tái cấu trúc đa tệp gần như vô địch.

Nhóm nội bộ của AMD thậm chí còn sử dụng nó để merge toàn bộ 190.000 dòng code legacy lên production chỉ trong ngày cuối tuần, năng suất được kéo lên tối đa.

Tuy nhiên, bước ngoặt xảy ra vào đầu tháng 2.

Anthropic đã lặng lẽ ra mắt tính năng "adaptive thinking" (suy nghĩ thích ứng), mô tả chính thức là "cho phép mô hình điều chỉnh độ sâu suy nghĩ một cách thông minh dựa trên độ phức tạp của nhiệm vụ".

Bề ngoài có vẻ thân thiện với người dùng, nhưng thực chất đã bật công tắc tiết kiệm toàn cục.

Đầu tháng 3, giá trị nỗ lực (effort) mặc định của mô hình đã được âm thầm giảm xuống mức medium, đồng thời bản tóm tắt quá trình suy nghĩ bị ẩn đi nhanh chóng, người dùng không thể nhìn thấy ngay mô hình đã suy nghĩ sâu đến mức nào.

Cùng thời kỳ này, Anthropic liên tục phát hành 14 bản cập nhật nhỏ, nhưng lại gặp phải 5 lần ngừng hoạt động quy mô lớn, cho thấy áp lực tính toán và tải đã tiệm cận giới hạn cực đại.

Phản hồi từ nhà phát triển bắt đầu bùng nổ tập trung, một số người nhận thấy hiệu suất đặc biệt kém vào giờ cao điểm (chiều giờ EST), nghi ngờ là do tiết kiệm năng lượng động theo tải.

Mãi đến tháng 4, khi giám đốc AI của AMD tự mình xuất chiến, sử dụng dữ liệu chứng minh thực tế, đã châm ngòi cho làn sóng dư luận.

Đến lúc này, Boris Cherny, người phụ trách Claude Code của Anthropic, mới buộc phải đưa ra một phản hồi chính thức.

Ông tuyên bố, "adaptive thinking" ảnh hưởng đến việc hiển thị suy nghĩ (thinking), chứ không phải quá trình suy luận cơ bản, và khẳng định đây là "tối ưu hóa có chủ ý" chứ không phải lỗi. Người dùng muốn cải thiện hiệu quả có thể tự điều chỉnh effort lên high.

Hàm ý của Anthropic rất rõ ràng: Giảm trí thông minh không phải là lỗi, mà là tối ưu hóa sản phẩm chúng tôi đặc biệt thực hiện, các bạn tự điều chỉnh tham số là được.

Phản hồi này ngay lập tức châm ngòi cho một cơn thịnh nộ lớn hơn.

Điểm mấu chốt là, từ giữa tháng 2 đến đầu tháng 4, Anthropic chưa từng thông báo trước bất kỳ thay đổi lớn nào.

Một lượng lớn người dùng trả phí, trong tình trạng hoàn toàn không biết gì, đóng phí đăng ký không thiếu một đồng, nhưng mô hình lại bị âm thầm tiết giảm.

Vì vậy, việc giảm trí thông minh của Claude không phải là do mô hình "hỏng não", mà là Anthropic đang thực hiện một động thái tinh vi hơn và cũng mang tính thương mại hóa hơn:

Bằng cách điều chỉnh giảm độ sâu suy nghĩ mặc định, để đổi lấy tốc độ nhanh hơn, tải thấp hơn và chi phí GPU thấp hơn.

Phân tầng năng lực mô hình

Đằng sau cơn bão giảm trí thông minh này, thực ra có một hiện tượng đáng cảnh giác:

Năng lực mô hình đã bắt đầu được phân tầng.

Tính toán của Stella rất rõ ràng: Theo khẩu độ định giá on-demand của AWS Bedrock, chi phí suy luận thực tế của nhóm bà trong tháng 3 vào khoảng 42.121 đô la, trong khi phí đăng ký Claude Code thực tế phải trả trong cùng tháng chỉ có 400 đô la.

Chênh lệch này ít nhất cho thấy, trong các tình huống sử dụng nặng cực độ, tồn tại một khoảng cách lớn giữa phí đăng ký theo định kỳ và mức tiêu thụ năng lực tính toán thực tế.

Điều này rất có thể là do Anthropic dùng vốn đốt tiền để đổi lấy thị phần, nhưng trợ cấp kiểu này là có giới hạn.

Khi mức tiêu thụ suy luận của người dùng nặng đạt đến một ngưỡng nào đó, tính bền vững của mô hình kinh doanh bắt đầu lung lay.

Boris Cherny trong phản hồi đã tiết lộ một tín hiệu then chốt: Anthropic đang thử nghiệm chế độ high effort mặc định cho người dùng Teams và Enterprise.

Nói cách khác, khả năng suy luận mạnh hơn đang được coi như một nguồn tài nguyên đắt đỏ hơn để cấu hình phân tầng, không còn là năng lực mà mọi người mặc định nhận được một cách bình đẳng.

Điều này có nghĩa là mô hình kinh doanh của các mô hình lớn sẽ tiếp tục phân hóa hơn nữa.

Hiện nay, 80% doanh thu của công ty Anthropic đến từ dịch vụ doanh nghiệp và các lệnh gọi API, phía B端 (doanh nghiệp) có độ gắn kết cao mới thực sự là mạch máu.

Những động thái gần đây của Anthropic đều nhằm mục đích thu hút việc sử dụng của doanh nghiệp vào nền tảng first-party của chính mình.

Đối với những khách hàng B端 có giá trị cao, Anthropic rất có thể sẽ đẩy nhanh việc ra mắt các phiên bản cấp doanh nghiệp mạnh hơn, cung cấp năng lực mô hình đầy đủ cho các khách hàng doanh nghiệp chi trả chi phí thực tế.

Còn người dùng C端 (cá nhân) trả phí hàng tháng, chỉ có thể tiếp tục tận hưởng phiên bản giảm trí thông minh "đủ dùng là được", đáp ứng nhu cầu nhẹ nhàng như trò chuyện, viết văn bản, bổ sung code, nhưng tuyệt đối không chạm đến giới hạn chi phí.

Đối với vùng trung gian, những nhà phát triển độc lập, nhóm nhỏ vừa cần suy luận phức tạp, vừa không đủ khả năng chi trả giá doanh nghiệp, sẽ trở thành nhóm bị ép nhất.

Một người dùng trên X đã đăng bài xác nhận:

"Hiệu suất của API phiên bản doanh nghiệp Claude tốt hơn nhiều so với đăng ký Pro/Max. Dùng cùng một khung kiểm tra để test, hành vi của phiên bản doanh nghiệp và Pro/Max就是不一样 (vốn dĩ là khác nhau). Nhưng điều này cũng có nghĩa là bây giờ phải chi 4-12k đô la mỗi tháng, tùy thuộc vào số lượng luồng tôi chạy đồng thời".

Tức là, con đường thương mại hóa của các mô hình lớn trong tương lai, phần lớn sẽ là ưu tiên B端, giảm chi phí cho C端.

Ai sẽ trả giá cho việc giảm trí thông minh?

Sự kiện giảm trí thông minh của Claude tuyệt đối không phải là trường hợp cá biệt, mà là hình ảnh thu nhỏ của toàn ngành AI bước vào nửa cuối của quá trình thương mại hóa.

Cho dù là OpenAI多次暗中缩水降级 (nhiều lần giảm cấp, teo nhỏ một cách lén lút) đối với series GPT, hay Google静默限流 (giới hạn lưu lượng một cách im lặng) đối với Gemini, đều đang lặp lại cùng một kịch bản:

Trước tiên dùng hiệu suất cao để thu hút người dùng câu, sau đó thông qua phần mềm tiết kiệm để kiểm soát chi phí.

Kết quả tất yếu là, B端 có thể dùng giá cao để mua mô hình mạnh hơn,外加 (cộng thêm) đảm bảo SLA, còn C端 thì nhận được mô hình bình dân phiên bản chưng cất, effort thấp.

Tốc độ tăng trí thông minh của mô hình C端 đã明显落后于 (tụt hậu rõ ràng so với) B端.

Nghiêm trọng hơn, sự phân hóa này là ẩn tính (implicit).

Anthropic và các nhà sản xuất khác đang giảm ngân sách suy luận theo một cách khó nhận biết, người dùng thông thường sẽ không nhận được bất kỳ thông báo nào.

Lựa chọn này trong ngắn hạn có lẽ能缓解 (có thể làm dịu) áp lực chi phí tính toán, nhưng cái giá dài hạn là sự đánh mất niềm tin vào thương hiệu.

Khi việc Claude secretly giảm trí thông minh trở thành nhận thức chung của người dùng, thứ Anthropic mất đi sẽ không chỉ là vài người dùng nặng, mà là sự tin tưởng của toàn bộ hệ sinh thái vào叙事 (tường thuật) về AI phổ cập và minh bạch.

Nhìn một cách vĩ mô hơn, sự kiện Claude là hình ảnh thu nhỏ của ngành AI chuyển từ giai đoạn tăng trưởng bùng nổ sang giai đoạn canh tác tinh tế.

Thời kỳ trợ cấp đã kết thúc, chi phí thực tế bắt đầu lộ rõ, ai sẽ gánh chịu những chi phí này?

Là nén trải nghiệm C端、提高 (nâng cao) định giá B端 như thế này, hay là chờ đợi cuộc cách mạng phần cứng phần mềm mang lại đột phá về hiệu suất, tất cả điều này sẽ quyết định cục diện ứng dụng AI trong năm năm tới.

Xu hướng tương lai đã lấp ló, AI不再 (không còn) là câu chuyện thần kỳ phổ cập ngày càng thông minh, mà là đi towards (về phía) sự phân tầng tinh anh.

Câu hỏi Liên quan

QClaude đã giảm trí thông minh như thế nào theo dữ liệu từ AMD AI Group?

ADữ liệu từ AMD AI Group cho thấy Claude đã giảm đáng kể khả năng tư duy: độ dài trung bình của 'thought block' giảm từ 2200 ký tự xuống còn 600 ký tự (giảm 67-73%), số lần đọc file trước khi chỉnh sửa giảm từ 6.6 lần xuống còn 2 lần, và 1/3 sửa đổi được thực hiện mà không đọc file.

QNguyên nhân nào được cho là lý do chính dẫn đến việc Claude 'giảm trí'?

ANguyên nhân chính được cho là do Anthropic cố ý triển khai tính năng 'adaptive thinking' để điều chỉnh độ sâu tư duy của mô hình nhằm giảm tải tính toán, tiết kiệm chi phí GPU và tăng tốc độ phản hồi, thay vì do lỗi kỹ thuật.

QPhản ứng của Anthropic trước cáo buộc Claude bị giảm trí thông minh là gì?

AAnthropic thừa nhận đã điều chỉnh 'effort' mặc định của mô hình xuống mức 'medium' và cho rằng đây là tối ưu hóa sản phẩm có chủ đích. Họ đề nghị người dùng tự điều chỉnh thủ công sang chế độ 'high effort' nếu muốn có hiệu suất tốt hơn.

QSự kiện này phản ánh xu hướng thương mại hóa nào trong ngành AI?

ASự kiện phản ánh xu hướng phân tầng khả năng mô hình AI: doanh nghiệp (B2B) trả phí cao sẽ được sử dụng mô hình mạnh hơn với đầy đủ khả năng, trong khi người dùng cá nhân (C2C) chỉ nhận được phiên bản giới hạn để tiết kiệm chi phí tính toán, đánh dấu sự kết thúc của thời kỳ AI 'phổ cập' và chuyển sang giai đoạn thương mại hóa thực tế.

QHậu quả tiềm ẩn của việc các công ty AI âm thầm giảm hiệu suất mô hình là gì?

AHậu quả bao gồm mất niềm tin của người dùng, đặc biệt là những người dùng nặng và nhóm developer độc lập; làm xói mòn niềm tin vào tính minh bạch của ngành AI; và có thể dẫn đến sự phân hóa rõ rệt giữa người dùng doanh nghiệp và cá nhân trong việc tiếp cận công nghệ AI tiên tiến.

Nội dung Liên quan

GensynAI : Đừng để AI lặp lại sai lầm của Internet

Trong vài tháng qua, sự bùng nổ của ngành AI đã thu hút nhiều nhân tài từ lĩnh vực crypto chuyển hướng sang. Một câu hỏi lớn được đặt ra là: blockchain liệu có thể trở thành một phần của cơ sở hạ tầng AI? Trong khi nhiều dự án AI + Crypto tập trung vào tầng ứng dụng, Gensyn tiếp cận lớp lõi và tốn kém nhất: **huấn luyện mô hình**. Gensyn xây dựng một mạng lưới huấn luyện AI mở, kết nối các tài nguyên GPU phân tán toàn cầu. Các nhà phát triển có thể gửi tác vụ huấn luyện, trong khi các nút cung cấp sức mạnh tính toán. Mạng lưới xác minh kết quả và phân phối phần thưởng. Điều đáng chú ý không chỉ là "phi tập trung" mà là giải pháp cho vấn đề then chốt: sức mạnh tính toán đang ngày càng tập trung vào các ông lớn, tạo ra rào cản cho sự phát triển AI. Bài viết nêu bật bốn điểm chính về Gensyn: 1. **Tiếp cận tầng cơ sở hạ tầng lõi**: Gensyn tham gia trực tiếp vào khâu huấn luyện - phần đòi hỏi kỹ thuật cao và tiêu tốn nhiều tài nguyên nhất, có khả năng tạo ra rào cản nền tảng. 2. **Cung cấp mô hình hợp tác mở**: Thay vì phụ thuộc vào các nền tảng đám mây tập trung đắt đỏ, Gensyn huy động GPU nhàn rỗi, cho phép điều phối tài nguyên linh hoạt, tối ưu chi phí và hiệu quả cho cả nhóm AI quy mô vừa và nhỏ. 3. **Rào cản kỹ thuật là lợi thế cạnh tranh**: Thách thức thực sự nằm ở việc xác minh kết quả huấn luyện và đảm bảo độ tin cậy trong môi trường phân tán. Các cơ chế như xác minh xác suất và hệ thống phối hợp nút của Gensyn tạo nên lợi thế công nghệ quan trọng. 4. **Đã hình thành vòng lặp thương mại thực tế**: Gensyn đáp ứng một nhu cầu thị trường có thật và đang tăng trưởng – đó là sự thiếu hụt GPU cho nhu cầu huấn luyện AI toàn cầu, chứ không đơn thuần là một câu chuyện công nghệ. Ranh giới giữa Crypto và AI đang dần mờ đi. AI cần cơ chế phối hợp tài nguyên, khuyến khích và hợp tác toàn cầu – những thế mạnh của Crypto. Gensyn hướng tới việc biến năng lực huấn luyện thành một hệ thống mở và có thể hợp tác, không còn là độc quyền của một số ít gã khổng lồ, từ đó thúc đẩy sự phát triển của cả ngành.

marsbit10 giờ trước

GensynAI : Đừng để AI lặp lại sai lầm của Internet

marsbit10 giờ trước

3 Năm, 5 Lần Tăng Trưởng: Sự Hồi Sinh Của Nhà Máy Kính Trăm Tuổi

Theo CRU, nhu cầu về cáp quang từ các trung tâm dữ liệu AI đã tăng 75.9% trong một năm, khiến khoảng cách cung-cầu mở rộng từ 6% lên 15%. Giá cáp quang cũng tăng hơn 3 lần trong vài tháng. Để giải quyết tình trạng thiếu hụt năng lực sản xuất, NVIDIA đã đầu tư tổng cộng 45 tỷ USD vào chuỗi cung ứng quang học, bao gồm 20 tỷ USD cho Lumentum (máy phát laser), 20 tỷ USD cho Coherent (chip quang silicon) và 5 tỷ USD cho Corning (cáp quang). Corning, công ty thủy tinh 175 năm tuổi, đã trở thành một mắt xích quan trọng trong cơ sở hạ tầng AI nhờ cam kết mở rộng năng lực sản xuất cáp quang lên 10 lần. Cổ phiếu của họ đã tăng khoảng 6 lần từ cuối năm 2023. Nguyên nhân chính đến từ nhu cầu cấu trúc: các trung tâm dữ liệu AI yêu cầu loại cáp quang đặc biệt có tổn hao cực thấp, mật độ cao và chống uốn cong tốt - những lĩnh vực Corning có thế mạnh kỹ thuật sâu. Doanh thu từ mảng truyền thông quang học của Corning cho khách hàng doanh nghiệp đã tăng gấp đôi lên hơn 3 tỷ USD từ 2023 đến 2025, với các hợp đồng dài hạn từ Meta, NVIDIA và hai khách hàng lớn khác. Mặc dù không phải là nhà sản xuất cáp quang lớn nhất thế giới về thị phần, Corning dẫn đầu về công nghệ sợi cao cấp phục vụ AI và đang hợp tác trực tiếp với NVIDIA và Broadcom trong lĩnh vực Quang học Đóng gói Chung (CPO). Tuy nhiên, định giá hiện tại của cổ phiếu đã phản ánh nhiều kỳ vọng tăng trưởng. Các yếu tố then chốt cần theo dõi bao gồm tiến độ triển khai thực tế của CPO, quy mô của các hợp đồng khách hàng lớn chưa tiết lộ, và sự phát triển của công nghệ cáp quang lõi rỗng có thể thay đổi cục diện ngành.

marsbit12 giờ trước

3 Năm, 5 Lần Tăng Trưởng: Sự Hồi Sinh Của Nhà Máy Kính Trăm Tuổi

marsbit12 giờ trước

Trong thời đại AI, chính tổ chức mới là hào sâu phòng thủ

Trong thời đại AI, khi sản phẩm, giao diện và công nghệ ngày càng dễ sao chép, hào rào cạnh tranh thực sự của một công ty không còn nằm ở những yếu tố hữu hình đó, mà chính là ở **tổ chức của nó**. Các công ty vĩ đại như OpenAI, Anthropic hay Palantir không chỉ thu hút nhân tài, mà họ còn phát minh ra những hình thái tổ chức mới - những "cỗ máy" cho phép một kiểu người cụ thể phát triển và cống hiến hết mình. Họ cạnh tranh bằng **bản sắc**, cung cấp cho những người đầy tham vọng một lộ trình rõ ràng để trở thành phiên bản tốt nhất của chính họ, thông qua sứ mệnh, quyền lực, vị thế và phần thưởng thực tế. Đối với người sáng lập, câu hỏi then chốt không phải là "làm thế nào để kể một câu chuyện hay hơn", mà là "kiểu người nào chỉ có thể thực sự là chính họ khi ở đây?". Câu trả lời phải được thể hiện trong cấu trúc tổ chức: nếu tin rằng tiếp xúc khách hàng là then chốt, thì vị trí đó phải có địa vị cao; nếu tin vào tốc độ, quyền quyết định phải được phân quyền. Đối với cá nhân lựa chọn công ty, cần phân biệt rõ giữa cảm giác "được chọn" (mang tính cảm xúc) và "được thấy" (mang tính cấu trúc). Một nơi làm việc đáng giá phải cam kết chuyển hóa giá trị của bạn thành quyền hạn, phạm vi trách nhiệm và lợi ích kinh tế cụ thể, chứ không chỉ là những lời hứa về tương lai. Tóm lại, AI có thể làm nhiều thứ trở nên dễ sao chép, nhưng không thể dễ dàng tạo ra một hình thái tổ chức mới - một cỗ máy có thể tập trung đúng người, trao đúng quyền lực và tạo ra lợi thế cộng dồn theo thời gian. **Chính hình thái tổ chức mới này mới là hào rào thực sự trong tương lai.**

marsbit13 giờ trước

Trong thời đại AI, chính tổ chức mới là hào sâu phòng thủ

marsbit13 giờ trước

Giao dịch

Giao ngay
Hợp đồng Tương lai
活动图片