Lời biên tập: Trong bối cảnh câu chuyện đầu tư và ngành công nghiệp AI tiếp tục nóng lên, "liệu có tồn tại bong bóng hay không" đã trở thành vấn đề cốt lõi được thảo luận lặp đi lặp lại trên thị trường. Một mặt, các câu chuyện về rủi ro cực đoan không ngừng củng cố lo ngại về việc công nghệ mất kiểm soát; mặt khác, chi phí vốn và mức định giá mở rộng nhanh chóng cũng khiến "lý thuyết bong bóng" luôn không thể xóa bỏ. Dưới sự phân hóa này, phán đoán thị trường thể hiện sự không chắc chắn rõ rệt.
Tác giả bài viết này, Ben Thompson, là người sáng lập nền tảng phân tích công nghệ Stratechery, lâu nay quan tâm đến sự phát triển của cấu trúc ngành và mô hình kinh doanh công nghệ. Nhân dịp NVIDIA GTC 2026 sắp diễn ra, ông đã sửa đổi đánh giá trước đây về "liệu AI có đang trong một bong bóng": không còn coi hiện tại là bong bóng, mà hiểu nó là một đợt tăng trưởng cấu trúc được thúc đẩy bởi sự thay đổi mô hình công nghệ.
Đánh giá này được xây dựng dựa trên quan sát ba bước nhảy vọt then chốt của LLM. Kể từ khi ChatGPT lần đầu tiên cho thị trường thấy năng lực của mô hình ngôn ngữ lớn vào năm 2022, LLM đã phát triển từ "có thể dùng nhưng không đáng tin cậy", đến "có năng lực suy luận", và sau đó là "có thể tự thực hiện nhiệm vụ". Đặc biệt vào cuối năm 2025, với sự ra mắt của Anthropic Opus 4.5 và OpenAI GPT-5.2-Codex, khối lượng công việc agentic (tác nhân) bắt đầu đi từ khái niệm đến hiện thực.
Điểm then chốt không nằm ở bản thân mô hình, mà ở sự xuất hiện của "agent harness" (bộ kiểm soát tác nhân). Agent tách rời người dùng và mô hình, chịu trách nhiệm điều phối mô hình, gọi công cụ và xác minh kết quả, biến AI từ một công cụ cần sự can thiệp liên tục của con người thành một hệ thống thực thi có thể giao phó nhiệm vụ. Sự thay đổi này không chỉ nâng cao độ tin cậy mà còn mở rộng biên giới ứng dụng của AI.
Dựa trên sự thay đổi mô hình này, tác giả chỉ ra thêm, sự mở rộng nhu cầu AI không còn phụ thuộc vào quy mô người dùng, mà phụ thuộc nhiều hơn vào khả năng điều phối của mỗi người dùng; đồng thời, khối lượng công việc agentic có đặc điểm "kẻ thắng cuộc hết tất", sẽ tiếp tục đẩy cao nhu cầu về năng lực tính toán hiệu suất cao và mang lại cơ hội cấu trúc cho các nhà sản xuất chip và nhà cung cấp dịch vụ điện toán đám mây.
Trong khuôn khổ này, chi tiêu vốn quy mô lớn hiện tại không chỉ là sự đặt cược đầu cơ vào tương lai, mà có khả năng cao là phản ánh trước nhu cầu thực tế. Khi AI chuyển từ "công cụ hỗ trợ" sang "cơ sở hạ tầng thực thi", tác động kinh tế của nó, có lẽ mới chỉ bắt đầu xuất hiện.
Dưới đây là nguyên văn:
Trước đây, tôi có khuynh hướng nghiêng về quan điểm thứ hai, thậm chí cho rằng, bong bóng ở một số giai đoạn chưa chắc đã là điều xấu.
Nhưng lúc này, đứng vào tháng 3 năm 2026, nhân dịp khai mạc GTC của NVIDIA, đánh giá của tôi đã thay đổi: đây chưa chắc đã là bong bóng. (Và trớ trêu thay, chính bản thân đánh giá này, có lẽ lại là tín hiệu của bong bóng.)
Ba bước nhảy mô hình của LLM
Vài tuần qua, khi thảo luận về báo cáo tài chính của NVIDIA và Oracle, tôi đã nhiều lần nhắc đến việc LLM đã trải qua ba bước nhảy vọt then chốt.
Giai đoạn một: ChatGPT
Bước ngoặt đầu tiên là sự ra mắt của ChatGPT vào tháng 11 năm 2022, điều này hầu như không cần nói thêm. Mặc dù mô hình ngôn ngữ lớn dựa trên Transformer đã xuất hiện từ năm 2017 và năng lực không ngừng được nâng cao, nhưng lâu nay bị đánh giá thấp. Ngay cả vào tháng 10 năm 2022, trong một cuộc phỏng vấn trên Stratechery, tôi vẫn cho rằng công nghệ này dù đáng kinh ngạc, nhưng thiếu sự sản phẩm hóa và động lực khởi nghiệp.
Nhưng vài tuần sau, mọi thứ hoàn toàn đảo ngược. ChatGPT lần đầu tiên khiến thế giới thực sự nhận ra năng lực của LLM.
Tuy nhiên, phiên bản đầu cũng để lại hai ấn tượng sâu sắc, đặc biệt được những người theo "thuyết bong bóng" nhắc đi nhắc lại:
Thứ nhất, mô hình thường xuyên mắc lỗi, thậm chí khi không biết câu trả lời sẽ "ảo giác" bịa đặt. Điều này khiến nó giống một "công cụ khoe khoang" hơn, ấn tượng nhưng không đáng tin cậy.
Thứ hai, dù vậy nó vẫn rất hữu ích, nhưng với điều kiện bạn phải biết cách sử dụng và cần liên tục kiểm tra đầu ra, sửa chữa lỗi sai.
Giai đoạn hai: o1
Bước ngoặt thứ hai là mô hình o1 do OpenAI phát hành vào tháng 9 năm 2024. Lúc đó, LLM đã có tiến bộ đáng kể nhờ mô hình cơ sở mạnh hơn và kỹ thuật hậu huấn luyện, đầu ra chính xác hơn, ít ảo giác hơn.
Nhưng đột phá then chốt của o1 nằm ở: nó sẽ "suy nghĩ" trước, rồi mới trả lời.
LLM truyền thống phụ thuộc vào đường dẫn, một khi đi sai trong quá trình suy luận, sẽ sai đến cùng. Đây là điểm yếu cốt lõi của "mô hình tự hồi quy". Còn mô hình suy luận sẽ tự đánh giá câu trả lời, nó sẽ tạo ra câu trả lời trước, rồi phán đoán xem có đúng không, nếu cần thì thử con đường khác.
Điều này có nghĩa là, mô hình bắt đầu chủ động quản lý lỗi, giảm gánh nặng can thiệp của người dùng. Kết quả cũng rất rõ rệt. Nếu đột phá của ChatGPT là "làm cho LLM có thể dùng", thì đột phá của o1 là "làm cho LLM đáng tin cậy".
Giai đoạn ba: Agent (Opus 4.5 / Codex)
Cuối năm 2025, bước nhảy vọt thứ ba xuất hiện.
Tháng 11 năm 2025, Anthropic phát hành Opus 4.5, ban đầu phản ứng khá bình thường. Nhưng đến tháng 12, Claude Code được trang bị mô hình này đột nhiên thể hiện năng lực chưa từng có; gần như đồng thời, OpenAI phát hành GPT-5.2-Codex, cũng thể hiện mức độ tương tự.
Mọi người trước đây vẫn luôn nói về "Agent", nhưng vào thời khắc này, chúng cuối cùng đã bắt đầu thực sự hoàn thành nhiệm vụ, thậm chí là những nhiệm vụ phức tạp cần hàng giờ, và là hoàn thành một cách chính xác.
Điểm then chốt không nằm ở bản thân mô hình, mà ở lớp kiểm soát (harness), tức là lớp phần mềm điều phối mô hình, gọi công cụ, thực thi quy trình. Nói cách khác, người dùng không còn trực tiếp vận hành mô hình, mà đưa ra mục tiêu, do Agent điều phối mô hình, gọi công cụ, thực thi quy trình và xác minh kết quả.
Lấy lập trình làm ví dụ:
· Giai đoạn một: Mô hình tạo mã
· Giai đoạn hai: Mô hình suy luận trong quá trình tạo
· Giai đoạn ba: Agent tạo mã → thực thi kiểm tra → tự chạy kiểm tra → sai thì làm lại, người dùng không cần can thiệp liên tục.
Điều này có nghĩa là, khuyết điểm cốt lõi thời ChatGPT đang được giải quyết một cách có hệ thống, tỷ lệ chính xác cao hơn, năng lực suy luận mạnh hơn, cơ chế xác minh tự động.
Vấn đề duy nhất còn lại là: Rốt cuộc nên dùng nó để làm gì?
Lý do tôi nhấn mạnh ba bước ngoặt này là để giải thích tại sao toàn ngành đang thiếu hụt nghiêm trọng năng lực tính toán, và tại sao chi tiêu vốn siêu lớn là hợp lý.
Ba mô hình, nhu cầu về năng lực tính toán hoàn toàn khác nhau:
· Giai đoạn một: Huấn luyện tốn sức tính toán, nhưng chi phí suy luận thấp
· Giai đoạn hai: Chi phí suy luận tăng vọt (nhiều token hơn + tần suất sử dụng cao hơn)
· Giai đoạn ba (Agent): Gọi nhiều lần mô hình suy luận, bản thân Agent cũng tiêu hao sức tính toán (thậm chí thiên về CPU), tần suất sử dụng tiếp tục bùng nổ
Nhưng quan trọng hơn là điểm thứ ba: Sự thay đổi cấu trúc nhu cầu bị đánh giá thấp nghiêm trọng.
Hiện tại, số người dùng chatbot nhiều hơn nhiều so với người dùng Agent, và rất nhiều người thực ra không sử dụng AI đầy đủ. Nguyên nhân nằm ở việc sử dụng AI cần "tính chủ động". LLM là công cụ, nó không có mục tiêu, không có ý chí, chỉ có thể được gọi một cách chủ động.
Nhưng Agent thay đổi điểm này, nó làm giảm yêu cầu về tính chủ động của con người. Trong tương lai, một người có thể đồng thời chỉ huy nhiều Agent.
Điều này có nghĩa là, ngay cả khi chỉ có số ít người có "tính chủ động", cũng đủ để thúc đẩy nhu cầu tính toán khổng lồ và sản lượng kinh tế.
AI vẫn cần "con người thúc đẩy", nhưng không cần "rất nhiều người".
Ý muốn trả tiền cho AI ở phía người tiêu dùng có hạn, điểm này đã dần trở nên rõ ràng. Đối tượng thực sự sẵn sàng trả tiền cho năng suất, là doanh nghiệp.
Điều khiến doanh nghiệp phấn khích, không chỉ là AI nâng cao hiệu suất, mà là AI có thể thay thế nhân lực, và hiệu quả hơn.
Tình hình thực tế hiện nay là, trong các công ty lớn, người thực sự thúc đẩy nghiệp vụ tiến lên phía trước, thường là số ít người; nhưng tổ chức lại rất lớn, mang lại chi phí phối hợp lớn. Tác dụng của Agent, là khuếch đại ảnh hưởng của "người thúc đẩy giá trị", đồng thời giảm ma sát tổ chức.
Kết quả là "ít người hơn → sản lượng cao hơn → chi phí thấp hơn". Đây cũng là lý do tại sao, việc cắt giảm nhân sự trong tương lai, rất có thể không chỉ là "điều chỉnh chu kỳ", mà là thay đổi cấu trúc.
Công ty sẽ suy nghĩ lại, không chỉ suy nghĩ xem liệu có "tuyển dụng quá nhiều người trong thời kỳ dịch" hay không, mà còn suy nghĩ trong thời đại AI, liệu chúng ta vốn dĩ có cần nhiều người như vậy không?
Tại sao đây không phải là bong bóng?
Nhìn từ góc độ này, logic "không phải bong bóng" đã khá rõ ràng:
1. Khuyết điểm cốt lõi của LLM đang được năng lực tính toán và kiến trúc tiếp tục giải quyết
2. Ngưỡng số người thúc đẩy nhu cầu đang giảm xuống
3. Lợi ích mà Agent mang lại, không chỉ là giảm chi phí, mà còn là tăng thu
Vì vậy, không khó hiểu tại sao tất cả nhà cung cấp điện toán đám mây đều nói, năng lực tính toán cung không đủ cầu, và tiếp tục tăng mạnh chi tiêu vốn.
Agent và Tái cấu trúc chuỗi giá trị
Một vấn đề then chốt khác là, nếu cuối cùng mô hình trở thành hàng hóa, liệu OpenAI và Anthropic còn kiếm được tiền không?
Quan điểm truyền thống cho là không, nhưng Agent thay đổi điểm này. Điểm then chốt nằm ở, giá trị thực sự không nằm ở bản thân mô hình, mà ở sự tích hợp "mô hình + hệ thống kiểm soát".
Lợi nhuận thường chảy về "lớp tích hợp", chứ không phải module có thể thay thế. Giống như Apple, phần cứng của nó không bị hàng hóa hóa, là vì tích hợp sâu với phần mềm. Tương tự, Agent cần sự phối hợp sâu giữa mô hình và harness, điều này khiến OpenAI và Anthropic trở thành những người tích hợp then chốt trong chuỗi giá trị, chứ không phải là mắt xích có thể thay thế.
Sự thay đổi của Microsoft là một tín hiệu, ban đầu nó nhấn mạnh "mô hình có thể thay thế", nhưng sau khi cho ra mắt sản phẩm Agent thực sự, buộc phải từ bỏ điểm này.
Điều này có nghĩa là mô hình chưa chắc sẽ hoàn toàn hàng hóa hóa, vì Agent cần năng lực tích hợp toàn diện.
Nghịch lý cuối cùng
Tôi phải quay lại nghịch lý lúc đầu.
Tôi luôn cho rằng, chỉ cần mọi người còn lo lắng về bong bóng, thì đó chưa phải là bong bóng; bong bóng thực sự, là khi không còn ai chất vấn nó nữa.
Mà bây giờ, kết luận của tôi là: Đây không phải là bong bóng.
Nhưng nếu bản thân việc "tôi nói đây không phải bong bóng", ngược lại chứng minh nó là bong bóng, thì cũng đành vậy thôi.






