Nguồn: International Business Times UK
Tác giả gốc: Anastasia Matveeva |
Biên dịch và tổng hợp: Gonka.ai
AI đang mở rộng với tốc độ chóng mặt, nhưng logic kinh tế cơ bản của nó mong manh hơn nhiều so với vẻ bề ngoài. Khi ba gã khổng lồ điện toán đám mây kiểm soát hai phần ba sức mạnh tính toán toàn cầu, khi chi phí huấn luyện lao về phía mốc 1 tỷ USD, khi hóa đơn suy luận (inference) khiến các công ty khởi nghiệp bất ngờ — cái giá thực sự của cuộc chạy đua vũ trang sức mạnh tính toán này đang âm thầm định hình lại sự phân bổ giá trị trong toàn bộ ngành công nghiệp AI.
Bài viết này không bàn về việc ai sẽ xây dựng được mô hình tiên tiến nhất. Nó đề cập đến một vấn đề cốt lõi hơn: Mô hình kinh tế hiện tại của cơ sở hạ tầng AI, sau khi được mở rộng quy mô, liệu có thực sự bền vững? Những thay đổi trong cơ chế phân bổ sức mạnh tính toán sẽ định hình lại sự phân bổ giá trị của toàn thị trường như thế nào?
I. Chi phí thông minh đằng sau hậu trường
Việc huấn luyện một mô hình lớn (large model) tiên tiến có thể tiêu tốn hàng chục triệu, thậm chí hàng trăm triệu đô la Mỹ. Anthropic từng công khai cho biết, chi phí huấn luyện Claude 3.5 Sonnet là "vài chục triệu đô la", và CEO của họ, Dario Amodei, trước đó dự đoán rằng chi phí huấn luyện cho thế hệ mô hình tiếp theo có thể tiến gần mốc 1 tỷ USD. Theo các phương tiện truyền thông ngành, chi phí huấn luyện GPT-4 có thể đã vượt quá 100 triệu USD.
Tuy nhiên, chi phí huấn luyện chỉ là phần nổi của tảng băng chìm. Thứ thực sự gây áp lực liên tục ở cấp độ cấu trúc là chi phí suy luận (inference cost) — tức là chi phí phát sinh mỗi khi mô hình được gọi. Theo định giá API công khai của OpenAI, suy luận được tính phí theo triệu Token. Đối với các ứng dụng có lượng sử dụng cao, điều này có nghĩa là ngay cả trước khi đạt quy mô, chi phí suy luận hàng ngày đã có thể lên tới hàng nghìn USD.
AI thường được mô tả như một loại phần mềm. Nhưng bản chất kinh tế của nó ngày càng giống một cơ sở hạ tầng thâm dụng vốn — vừa có đầu tư trước ban đầu cao, vừa có chi phí vận hành liên tục không ngừng.
Sự thay đổi trong cấu trúc kinh tế này đang âm thầm thay đổi cục diện cạnh tranh của toàn bộ ngành công nghiệp AI. Những người có thể trang trải được sức mạnh tính toán là những gã khổng lồ đã xây dựng được cơ sở hạ tầng quy mô lớn; còn những công ty khởi nghiệp đang cố gắng tồn tại trong khe hẹp thì đang bị hóa đơn suy luận bào mòn từng chút một.
II. Cường độ vốn và sự tập trung thị trường
Theo phân tích thị trường điện toán đám mây năm 2026 của Holori, AWS hiện chiếm khoảng 33% thị phần điện toán đám mây toàn cầu, Microsoft Azure khoảng 22% và Google Cloud khoảng 11%. Ba công ty này cùng nhau kiểm soát khoảng hai phần ba thị phần cơ sở hạ tầng đám mây toàn cầu, và phần lớn khối lượng công việc AI toàn cầu hiện đang chạy trên cơ sở hạ tầng của ba công ty này.
Ý nghĩa thực tế của mức độ tập trung này là: Khi API của OpenAI gặp sự cố ngừng hoạt động, hàng nghìn sản phẩm đồng thời bị ảnh hưởng; khi một nhà cung cấp dịch vụ đám mây chính gặp sự cố, các dịch vụ xuyên ngành, xuyên khu vực ngay lập tức gián đoạn.
Mức độ tập trung không thu hẹp, mà chi tiêu cho cơ sở hạ tầng tiếp tục được mở rộng. Lấy NVIDIA làm ví dụ, doanh thu hàng năm hóa của hoạt động kinh doanh trung tâm dữ liệu đã vượt 80 tỷ USD, cho thấy nhu cầu về GPU hiệu suất cao vẫn tiếp tục mạnh mẽ.
Đáng chú ý hơn là một sự bất bình đẳng cấu trúc ngầm. Theo các tài liệu của SEC và báo cáo thị trường, các phòng thí nghiệm hàng đầu như OpenAI, Anthropic thông qua các thỏa thuận "đổi vốn cổ phần lấy sức mạnh tính toán" trị giá nhiều tỷ USD, đã khóa chặt tài nguyên GPU với mức giá gần bằng chi phí, chỉ khoảng 1.30–1.90 USD mỗi giờ. Trong khi đó, các công ty vừa và nhỏ thiếu mối quan hệ chiến lược với NVIDIA, Microsoft, Amazon buộc phải mua với giá bán lẻ trên 14 USD mỗi giờ — chênh lệch giá lên tới 600%.
Khoảng cách định giá này chính được thúc đẩy bởi khoản đầu tư chiến lược tổng cộng 40 tỷ USD gần đây của NVIDIA vào các phòng thí nghiệm hàng đầu. Quyền tiếp cận cơ sở hạ tầng AI ngày càng được quyết định bởi các thỏa thuận mua sắm thâm dụng vốn, chứ không phải bởi cạnh tranh thị trường mở.
Ở giai đoạn áp dụng ban đầu, sự tập trung này có vẻ "hiệu quả". Nhưng sau khi mở rộng quy mô, nó mang lại rủi ro định giá, điểm nghẽn nguồn cung và sự phụ thuộc vào cơ sở hạ tầng — ba điểm yếu chồng chất.
III. Khía cạnh năng lượng bị bỏ quên
Vấn đề chi phí của cơ sở hạ tầng AI còn có một khía cạnh thường bị bỏ qua: năng lượng.
Theo dữ liệu từ Cơ quan Năng lượng Quốc tế (IEA), các trung tâm dữ liệu hiện chiếm khoảng 1–1.5% mức tiêu thụ điện toàn cầu, và nhu cầu được thúc đẩy bởi AI có thể làm tăng đáng kể tỷ lệ này trong vài năm tới.
Điều này có nghĩa, kinh tế học sức mạnh tính toán không chỉ là vấn đề tài chính, mà còn là một thách thức về cơ sở hạ tầng và năng lượng. Khi khối lượng công việc AI tiếp tục mở rộng, ý nghĩa địa chính trị của việc cung cấp điện năng sẽ ngày càng nổi bật — quốc gia nào có thể cung cấp sức mạnh tính toán ổn định nhất với chi phí năng lượng thấp nhất, sẽ chiếm lợi thế cấu trúc trong cuộc cạnh tranh công nghiệp thời đại AI.
Khi Jensen Huang tại GTC26 thông báo tầm nhìn đơn hàng của NVIDIA đã vượt 1 nghìn tỷ USD, ông ấy không chỉ mô tả thành công thương mại của một công ty, mà là cả một quá trình vĩ đại của nền văn minh đang chuyển đổi điện năng, đất đai và khoáng sản khan hiếm thành sức mạnh tính toán thông minh.
IV. Suy nghĩ lại về cơ chế cơ sở hạ tầng
Trong khi các trung tâm dữ liệu tập trung tiếp tục mở rộng, một hướng khám phá khác đang âm thầm nổi lên — cố gắng định nghĩa lại tận gốc cách thức phối hợp tài nguyên sức mạnh tính toán.
Suy luận phi tập trung: Một sự thay thế cấu trúc
Giao thức Gonka là một thực hành tiêu biểu theo hướng này. Đây là một mạng lưới phi tập trung được thiết kế dành riêng cho suy luận AI, mục tiêu thiết kế cốt lõi là: nén chi phí đồng bộ mạng và đồng thuận xuống mức thấp nhất, hướng càng nhiều tài nguyên tính toán càng tốt vào khối lượng công việc AI thực tế.
Ở cấp độ quản trị, Gonka áp dụng nguyên tắc "một đơn vị sức mạnh tính toán, một phiếu bầu" — trọng số quản trị được xác định bởi đóng góp sức mạnh tính toán có thể xác minh, chứ không phải tỷ lệ nắm giữ vốn. Ở cấp độ kỹ thuật, giao thức sử dụng khoảng đo lường hiệu suất chu kỳ ngắn (gọi là Sprint), yêu cầu người tham gia thể hiện sức mạnh tính toán GPU thực tế theo thời gian thông qua cơ chế bằng chứng công việc (Proof of Work - PoW) dựa trên Transformer.
Ý nghĩa của thiết kế này là: Gần 100% sức mạnh tính toán của mạng được hướng vào chính khối lượng công việc suy luận AI, thay vì bị tiêu hao trong các chi phí cơ sở hạ tầng như duy trì sự đồng thuận, phối hợp truyền thông.
Logic kinh tế của sức mạnh tính toán phân tán
Xét từ góc độ kinh tế, đề xuất giá trị của mạng lưới sức mạnh tính toán phi tập trung có ba tầng.
Thứ nhất là tầng chi phí. Cấu trúc định giá của các nhà cung cấp dịch vụ đám mây tập trung, về bản chất, bao gồm khấu hao tài sản cố định khổng lồ, chi phí vận hành trung tâm dữ liệu và kỳ vọng lợi nhuận của cổ đông. Mạng lưới phi tập trung thông qua việc kiếm tiền từ các tài nguyên GPU nhàn rỗi, có thể nén đáng kể phần chi phí này. Lấy Gonka làm ví dụ, hiện tại dịch vụ suy luận được cung cấp thông qua cổng thanh toán USD của nó, GonkaGate, có định giá khoảng 0.0009 USD cho mỗi triệu Token — trong khi các nhà cung cấp dịch vụ tập trung như Together AI định giá cho mô hình tương tự (như DeepSeek-R1) vào khoảng 1.50 USD, chênh lệch lên tới hơn nghìn lần.
Thứ hai là tầng đàn hồi nguồn cung. Nguồn cung sức mạnh tính toán của các nhà cung cấp dịch vụ tập trung là cứng nhắc, chu kỳ mở rộng quy mô tính bằng tháng thậm chí quý. Người tham gia mạng lưới phi tập trung có thể tham gia hoặc rút lui linh hoạt theo biến động nhu cầu, về lý thuyết có thể phản ứng nhanh hơn với các đỉnh nhu cầu — giống như dịch vụ điện toán đám mây Amazon ra đời do nhu cầu đỉnh điểm trong ngày lễ, sự biến động lên xuống của suy luận AI cũng cần cơ sở hạ tầng đàn hồi để đáp ứng.
Thứ ba là tầng chủ quyền. Khía cạnh này nổi bật đặc biệt dưới góc nhìn của các quốc gia có chủ quyền. Khi các dịch vụ công của một chính phủ phụ thuộc sâu vào một nhà cung cấp dịch vụ đám mây bên ngoài, sự phụ thuộc vào sức mạnh tính toán chính là điểm yếu chiến lược. Mạng lưới phi tập trung cung cấp một khả năng: các trung tâm dữ liệu địa phương có thể tham gia như một nút vào mạng lưới phân tán toàn cầu, vừa đảm bảo chủ quyền dữ liệu, vừa có được lợi nhuận thương mại bền vững thông qua việc cung cấp sức mạnh tính toán cho thị trường toàn cầu.
V. Thời khắc tái cấu trúc phân phối giá trị
Trở lại vấn đề cốt lõi lúc đầu: Mô hình kinh tế hiện tại của cơ sở hạ tầng AI, sau khi mở rộng quy mô, liệu có bền vững?
Câu trả lời là: Đối với những người chơi hàng đầu, thì bền vững; đối với tất cả những người còn lại, thì ngày càng không bền vững.
AWS, Azure, Google Cloud thông qua tích lũy vốn hàng chục năm đã xây dựng được hào thành, lợi thế quy mô của họ trong ngắn hạn gần như không thể lay chuyển. Nhưng lợi thế cấu trúc này đồng thời có nghĩa: Quyền định giá, quyền truy cập dữ liệu và sự phụ thuộc vào cơ sở hạ tầng, đều tập trung cao độ vào một số ít thực thể tư nhân.
Trong lịch sử, mỗi lần độc quyền về cơ sở hạ tầng công nghệ trọng yếu, cuối cùng đều tạo ra kiến trúc phân tán thay thế — bản thân Internet là cuộc nổi dậy chống lại độc quyền viễn thông, BitTorrent là sự lật đổ tính tập trung trong phân phối nội dung, Bitcoin là thách thức đối với sự tập trung hóa trong phát hành tiền tệ.
Phi tập trung hóa cơ sở hạ tầng AI, có thể không phải là một lựa chọn ý thức hệ, mà là một tất yếu kinh tế — khi chi phí của tập trung hóa đủ cao để thúc đẩy làn sóng di chuyển quy mô lớn của người dùng, nhu cầu về giải pháp thay thế sẽ thực sự bùng nổ. Jensen Huang dùng phép loại suy "mỗi cuộc khủng hoảng tài chính lại đẩy nhiều người hơn về phía Bitcoin" để so sánh logic này, và nó cũng áp dụng cho thị trường sức mạnh tính toán.
Sự xuất hiện đột phá của DeepSeek đã chứng minh một điều: Trong một thế giới mà năng lực của mô hình mã nguồn mở tiến sát mô hình tiên tiến độc quyền, chi phí suy luận sẽ trở thành biến số cốt lõi quyết định tốc độ mở rộng quy mô của ứng dụng AI. Ai có thể cung cấp sức mạnh tính toán suy luận với chi phí thấp nhất, tính khả dụng cao nhất, người đó nắm giữ tấm vé vào cửa của cuộc cạnh tranh này.
Kết luận: Cuộc chiến cơ sở hạ tầng mới chỉ bắt đầu
Cuộc cạnh tranh giai đoạn tiếp theo của AI, sẽ không phân thắng bại trên bảng xếp hạng năng lực mô hình, mà sẽ thấy rõ chân章 trong cuộc chơi kinh tế của cơ sở hạ tầng.
Các gã khổng lồ sức mạnh tính toán tập trung nắm trong tay lợi thế vốn và quy mô, nhưng cũng mang trên lưng cấu trúc chi phí cố định và áp lực định giá. Các mạng lưới phi tập trung đang thâm nhập thị trường với chi phí biên cực thấp, nhưng cần chứng minh rằng bản thân có thể đạt được ngưỡng thương mại thực tế về tính ổn định, dễ sử dụng và quy mô hệ sinh thái.
Hai con đường sẽ cùng tồn tại song song lâu dài, và gây áp lực lẫn nhau. Sức căng giữa tập trung và phi tập trung, sẽ là một trong những chủ đề cấu trúc đáng theo dõi nhất của ngành công nghiệp AI trong năm năm tới.
Cuộc chiến cơ sở hạ tầng này, mới chỉ bắt đầu.








