Not Just DeepSeek, Big Tech Companies Want to 'Abandon' NVIDIA

marsbitXuất bản vào 2026-04-24Cập nhật gần nhất vào 2026-04-24

Tóm tắt

The article discusses how major tech companies are attempting to reduce their reliance on Nvidia, despite its dominant position in the AI chip market, where it enjoys a 75.2% GAAP gross margin. Companies like DeepSeek are adapting their models to run on domestic alternatives such as Huawei’s Ascend chips, while in the U.S., Google and Meta are developing their own AI chips (TPU and MTIA series) to complement external partnerships. Nvidia’s CEO, Jensen Huang, acknowledges that Moore’s Law is fading and that export restrictions may slow China’s AI development but could ultimately spur a self-sufficient ecosystem. Notably, Chinese firms are leading in open-source models, which could eventually challenge Nvidia’s monopoly. OpenAI is actively diversifying away from Nvidia, signing a $20 billion deal with Cerebras, a startup using wafer-scale chips to reduce latency and cost. Cerebras, founded by Andrew Feldman, aims to challenge Nvidia with its unique architecture but faces financial and competitive risks, including heavy dependence on OpenAI and geopolitical tensions. While competition is intensifying with players like AMD and Groq (which partnered with Nvidia), the overall demand for compute continues to grow. The market is shifting toward a diversified supplier model, though Nvidia remains a formidable force.

The whole world covets NVIDIA's business.

According to NVIDIA's Q4 FY2026 (ending January 2026) earnings report, its GAAP gross margin was as high as 75.2%, making it practically a money-printing machine. This immense profitability stems primarily from its dominant position in the AI chip market, which grants it powerful pricing power.

Almost all large language models run on NVIDIA's computing chips, supporting its nearly $5 trillion market capitalization.

But precisely because of this, almost all major AI companies are openly or covertly trying to break free from NVIDIA's cage, unwilling to hand over their fate to it. The recently released DeepSeek V4, based on its technical report, was most likely trained using NVIDIA chips, but it is being adapted for inference on Huawei's Ascend computing chips. Furthermore, it stated that the token cost for the Pro version will be significantly reduced after the launch of Huawei's Ascend 950 in the second half of the year. Additionally, besides Huawei Ascend, domestic chip manufacturers like Tianshu Zhixin and Cambricon have also announced support for the new DeepSeek V4 model.

In NVIDIA's home turf, the US, Google developed its own TPU (Tensor Processing Unit) computing chips. As of April 2026, the TPU has reached its eighth generation, forming a complete product line of training and inference chips. In March, Meta also disclosed its roadmap for self-developed AI chips, planning to deploy four new products in the MTIA series by the end of 2027 to meet the internal AI business computing needs, while maintaining large-scale procurement partnerships with NVIDIA and AMD, building a dual-track computing power system of "self-developed + external procurement".

Yes, for the time being, no AI company can bypass NVIDIA, but Jensen Huang still senses the crisis. In a recent podcast interview, Huang stated that Moore's Law is coming to an end, meaning the era of chip performance doubling every year is over. The performance advantage of today's most advanced chips is not a permanent moat, but a relative advantage with a time window. Once the manufacturing process approaches physical limits, the difficulty for latecomers to catch up will actually decrease.

Huang said that restricting the export of computing chips to China would indeed slow down the development speed of Chinese AI in the short term, but in the long run, it will only force China to form its own ecosystem. What he didn't delve into further is that currently, only Chinese AI companies are committed to open source, and are being adopted by numerous companies and startups. If more and more open-source models run on Chinese-made computing chips, then even if NVIDIA still holds the number one market position, it will no longer be the only one.

In fact, even without the threat of Chinese open-source large models and computing chips, market competition is likely to push the computing chip industry towards a duopoly structure, rather than letting NVIDIA dominate alone.

Interestingly, among them, OpenAI, which is extremely dependent on NVIDIA, is ironically the most active in "backstabbing" it.

01

On April 17 local time, US AI chip manufacturer Cerebras officially submitted an IPO application to the US SEC, aiming to raise $3 billion with a valuation of $35 billion.

After withdrawing its previous IPO application in October 2025, this challenger to NVIDIA, whose core selling point is "wafer-scale chips," launched another IPO冲刺 (sprint) within six months, successfully pushing its company valuation from $8.1 billion to $35 billion.

The core pillar of this valuation surge is a cooperation agreement with OpenAI worth over $20 billion.

According to the agreement, OpenAI commits to using server clusters powered by Cerebras chips over the next three years. Cerebras will deploy 750 megawatts of computing power for the latter, expected to be fully deployed by 2028. Additionally, OpenAI will provide Cerebras with approximately $1 billion in funding to help develop its data centers and obtain about 10% in warrants.

Clearly, OpenAI is no longer just a simple client; it is a creditor and potentially a major future stakeholder. The decision to re-initiate the IPO冲刺 at this time is likely a joint decision by both companies.

On the same day Cerebras submitted its IPO documents, three core OpenAI executives, including Sora lead Bill Peebles, announced their departure. Meanwhile, the $500 billion "Stargate" plan, once seen as a milestone in US AI infrastructure, is also in disarray, with internal coordination and financing issues progressing slowly.

According to media disclosures, OpenAI's revenue in 2025 was $13.1 billion, with losses as high as $8 billion. Losses are预计 to soar to $25 billion this year. Under the pressure of huge losses, OpenAI even had to make painful cuts, shutting down the popular video generation product Sora.

Some analysis suggests that Sora's daily computing power cost was approximately $15 million, with the cost of a 10-second high-precision video around $33. During Sora's operation, total user payment revenue was only $2.1 million.

In such turbulent times, Altman naturally understands that over-reliance on NVIDIA would become OpenAI's biggest weakness.

Previously, OpenAI announced collaborations with Broadcom to develop custom chips and adopted AMD's new MI450 chips, frequently sending clear signals to the outside world—it no longer wants to work for NVIDIA. It is against this backdrop that Cerebras became a key bet in OpenAI's "de-NVIDIAization" strategy.

Although Cerebras is not widely known, it has uniqueness among chip manufacturing companies.

Almost all chip design giants follow the "cut the wafer, make small chips" route. Cerebras, however, focused on the "memory wall" encountered when data is moved between chips, thus adopting a more aggressive single-chip technology路线.

Cerebras's core product is the Wafer-Scale Engine WSE-3, a single chip made from an entire 300mm wafer. Because computation, storage, and interconnection are all within a single chip, data transmission latency is reduced by 90% compared to GPU clusters, making it particularly suitable for low-latency inference of large models.

In inference scenarios, the wafer-scale architecture is expected to reduce the cost per token by 80%.

OpenAI's head of computing infrastructure stated that Cerebras has added a dedicated low-latency inference solution to the platform, which will not only allow users to get faster response times but also lay the foundation for expanding real-time AI technology to a broader user base.

More importantly, Cerebras's non-HBM dependent route might break NVIDIA's near-monopoly in the chip industry, making computing power supply more diverse.

All of these恰好 hit OpenAI's pain points perfectly, making the collaboration between the two a natural fit.

Besides OpenAI, Cerebras also reached a cooperation agreement with AWS in March. The CS-3 will be deployed in Amazon's data centers, entering the infrastructure system of mainstream hyperscale cloud platforms.

02

"The most exciting thing about this rapidly iterating industry is that algorithms will continue to become faster, more accurate, and more efficient—precisely why I am unwilling to投身 those traditional industries that remain unchanged for nine years."

Cerebras's ability to reach its current position is closely tied to its founder, Andrew Feldman.

Unlike typical chip company founders who are engineers, Feldman graduated from Stanford University with bachelor's degrees in Economics and Political Science and an MBA. From the beginning of his career, he consistently accumulated experience in product and marketing fields. This career path gave him a natural instinct for what kind of business model could succeed.

As his experience grew, Feldman gradually transitioned from an employee to a serial entrepreneur.

And all serial entrepreneurs have one极其明显的 characteristic—they want to win, desperately. These people aren't just ordinarily "competitive"; they treat "winning" as indispensable as breathing. They typically choose to bet in the "no man's land" of industry consensus, going all-in on directions most people consider "unnecessary" or "impossible." In other words, they have a relatively large "gambling spirit."

In 2007, Feldman founded the server company SeaMicro.

"Today's large processors are like us driving a space shuttle to the grocery store. Actually, I just need to drive a Prius."

SeaMicro abandoned the traditional server approach of "piling on components." It removed all components except the CPU, memory, and a self-developed ASIC, providing "more cores" for specialized internet companies needing "scale-out" workloads. The company was acquired by AMD for $355 million in 2012.

Although the microserver business gradually faded into obscurity after being integrated into AMD, this experience allowed Feldman to accumulate wealth and further solidify his entrepreneurial methodology: at the node of generational change, use "counter-mainstream" hardware design to切入细分 markets not yet covered by giants.

According to industry conventions, chip yield decreases as area increases. While chip companies were all following NVIDIA's path forward, Feldman decided, in a very "layman" way of thinking, to directly make a single chip the size of a plate.

In 2015, Feldman and his technical partner Gary Lauterbach共同 founded Cerebras and brought in several former colleagues from SeaMicro. Cerebras remained silent for a full four years until it released the first-generation WSE-1 in August 2019.

During this obscure R&D period, Feldman was betting on two things: one was that TSMC's wafer-level packaging technology would gradually mature, and the other was that AI models would become so large that the memory wall of GPUs would become a fatal bottleneck.

Judging from current developments, he bet correctly.

From 2019 to 2024, Cerebras launched a new generation every two years, with the process jumping from 16nm to 7nm to 5nm, and the number of transistors rolling from 1.2 trillion to 4 trillion. Meanwhile, Feldman began actively seeking out major clients. In 2023, he flew to Abu Dhabi and secured G42.

Cerebras and G42 collaborated to train the leading language model in the Arabic language domain and jointly created Condor Galaxy, a network of nine interconnected supercomputers. The close cooperation with this Middle Eastern enterprise also triggered a national security review of Cerebras by the US Committee on Foreign Investment, but Feldman didn't care—the review indicated his own strength.

"If you only work 38 hours a week and还想挑战 an 800-pound gorilla like NVIDIA? No way. You need every waking minute."

Feldman was once asked in an interview about his views on "work-life balance," and he gave a rather radical negative answer. He毫不掩饰 his ambition to challenge NVIDIA.

Referencing NVIDIA's hundred-fold growth over ten years, Feldman holds a optimistic outlook for Cerebras's prospects: to develop treatment plans for millions of patients in the next 3 to 5 years; to provide inference computing power for applications yet to be born; to allow the public to use the company's technology without even noticing it.

03

Cerebras's冲刺 IPO faces constant controversy. Optimists look forward to witnessing the birth of a second NVIDIA, while naysayers question the stability of its performance.

According to officially disclosed financial information, Cerebras's revenue grew from $24.6 million in 2022 to $510 million in 2025, with a four-year compound annual growth rate of 175%. Particularly突出的是, the GAAP net profit in 2025 was $238 million, successfully reversing the颓势 of a net loss of $482 million in 2024.

However, a closer analysis reveals that the GAAP profit benefited from a non-cash book gain of $363 million. This gain was actually an accounting operation resulting from the removal of G42-related liabilities from the balance sheet due to the US security review. Excluding this non-recurring item, the company's non-GAAP net loss was actually $75.7 million.

In other words, Cerebras's "return to profitability" is an accounting game.

In 2023 and 2024, G42 contributed 83% and 87% of Cerebras's total revenue, respectively. With geopolitical conflicts becoming increasingly severe, the risk of relying on a single customer from the Middle East is可想而知. After all, Cerebras's first IPO withdrawal was partly due to national security reviews.

According to the prospectus, the company's remaining performance obligations,高达 $24.6 billion, rely heavily on the $20 billion agreement signed with OpenAI. In other words, Cerebras's expected revenue is almost entirely based on OpenAI's forward commitments, rather than a diversified large-scale customer base.

Whether this "shot in the arm" order can be fulfilled depends on the fate of OpenAI itself. When the stability of the largest customer itself is being反复打量 by the market, how much of this "blank check" can be realized is something恐怕 Feldman himself cannot guarantee.

A comparison with NVIDIA更能看出 Cerebras's disadvantages.

Even before the AI industry's big explosion, NVIDIA had already established a diversified customer base across multiple fields such as gaming, professional visualization, and data centers. No single customer accounted for more than 10% of its revenue. Over more than twenty years of evolution, NVIDIA has deeply bound itself with millions of developers. Every product iteration stems from the needs of internal ecosystem expansion, and its product planning path is very clear. Cerebras's ecosystem is at a very early stage, still achieving only a single-point breakthrough in inference scenarios, and has a long way to go before becoming a true platform company.

Even without the sudden emergence of ChatGPT, NVIDIA was a high-quality company with stable revenue and considerable profits. But if the $20 billion order from OpenAI were to disappear, Cerebras恐怕 wouldn't even have the possibility of冲刺 an IPO.

In December 2025, NVIDIA reached a special cooperation agreement worth approximately $20 billion in cash with Cerebras's competitor Groq. NVIDIA obtained a permanent non-exclusive license for Groq's LPU inference architecture and full-stack chip design technology.

Jensen Huang's entry signifies that the value of Cerebras's low-latency dedicated inference architecture has been recognized by industry giants, but it also急剧 increases the competitive pressure Cerebras faces.

From a practical standpoint, OpenAI引入 Cerebras is not for replacement, but to act as a "catfish" (stimulus), increasing bargaining chips and分散 supply chain risks.

There are reports that NVIDIA's system based on Groq chips will be launched in the second half of 2026. If Altman turns around and reaches an agreement with Huang again, Cerebras could easily become the sacrifice.

In the trillion-dollar AI chip track, diversified competition is undoubtedly good for the long-term development of the industry ecosystem. But the capital market is never short of wealth creation myths and舆论炒作. Whether Cerebras can truly deliver on its technological and commercial value still requires overcoming multiple tests.

The appealing title of "NVIDIA challenger" might also turn out to be a short-lived bubble.

But as the "Jevons Paradox" reveals, technological progress improves resource utilization efficiency and reduces the cost per unit output, but because people can afford to use more and use it more widely, it反而 leads to an increase in the total consumption of resources. As AI渗透 more extensively into all aspects of people's lives, computing power demand will continue to grow rapidly in the foreseeable future.

This super-large market worth hundreds of billions or even thousands of billions of dollars is not only about economics but also involves geopolitical security. No one wants to hand over the keys to their fate to be held by NVIDIA alone.

But显然, even out of自尊, Jensen Huang will not easily hand over the keys.

This article is from WeChat public account "最话FunTalk" (ID: iFuntalker), author: He Yiran, editor: Liu Yuxiang

Câu hỏi Liên quan

QWhy are major AI companies trying to reduce their reliance on NVIDIA?

ADue to NVIDIA's dominant market position and pricing power, which gives it significant control over the AI chip supply chain. Companies like DeepSeek, Google, Meta, and OpenAI are seeking alternatives to avoid dependency, reduce costs, and diversify their supply chains for greater strategic flexibility.

QWhat is Cerebras' unique approach to AI chip design?

ACerebras uses a wafer-scale engine (WSE) design, which involves creating a single, large chip from an entire silicon wafer. This approach reduces data transfer delays by 90% compared to GPU clusters and is particularly efficient for low-latency inference in large models, potentially lowering token costs by 80%.

QHow does OpenAI's partnership with Cerebras reflect its strategy?

AOpenAI's $20 billion agreement with Cerebras is part of its 'de-NVIDIAization' strategy to diversify its AI chip supply, reduce costs, and mitigate risks associated with over-reliance on a single vendor. This move also serves as leverage in negotiations with NVIDIA and other chip suppliers.

QWhat are the financial challenges facing Cerebras despite its IPO ambitions?

ACerebras' financials show reliance on non-recurring accounting gains and a heavy dependence on a few key clients like G42 and OpenAI. Its GAAP profitability in 2025 was largely due to a one-time $363 million non-cash gain, and without the OpenAI deal, its IPO prospects would be uncertain.

QWhat broader industry trend does the competition against NVIDIA represent?

AThe competition reflects a push for a diversified, multi-vendor AI chip ecosystem rather than NVIDIA's monopoly. This is driven by economic factors (cost reduction), geopolitical concerns (e.g., U.S.-China tensions), and the desire for technological innovation beyond traditional GPU architectures.

Nội dung Liên quan

Máy sấy tóc kiếm được 34,000 USD? Giải mã nghịch lý phản xạ của thị trường dự đoán

Một người đàn ông đã kiếm được 34.000 USD chỉ bằng cách dùng máy sấy tóc làm nóng cảm biến thời tiết tại sân bay, từ đó thao túng kết quả trên thị trường dự đoán Polymarket. Sự kiện này làm nổi bật nghịch lý cốt lõi của các thị trường dự đoán: chúng được thiết kế để phản ánh hiện thực, nhưng chính cơ chế khuyến khích tài chính lại tạo động lực cho người tham gia thao túng hiện thực. Bài viết phân chia các thị trường dự đoán thành bốn loại rủi ro theo khả năng bị thao túng: thị trường phụ thuộc vào nguồn dữ liệu vật lý đơn lẻ (như thời tiết), thị trường mà người trong cuộc biết trước kết quả (như nội dung video của người nổi tiếng), thị trường mà đối tượng được dự đoán có động cơ tự thao túng (như số lượng tweet), và thị trường mà một cá nhân có thể tự mình thay đổi kết quả (như ném đồ vật vào sân thi đấu). Hai nền tảng hàng đầu, Polymarket và Kalshi, có cách tiếp cận trái ngược. Kalshi thực thi nghiêm ngặt luật chống giao dịch nội gián, yêu cầu xác minh danh tính (KYC) và công khai xử phạt. Ngược lại, Polymarket ban đầu có quan điểm khoan dung hơn, coi thông tin nội gián giúp giá cả chính xác hơn, nhưng gần đây cũng bắt đầu phối hợp với cơ quan điều tra. Nghịch lý phản xạ của thị trường dự đoán nằm ở chỗ: khi một sự kiện có thể được giao dịch, nó không còn là đối tượng để quan sát mà trở thành mục tiêu để người tham gia tác động. Thị trường càng thành công trong việc dự đoán hiện thực thì càng tạo ra động cơ để biến dạng chính hiện thực đó.

marsbit1 giờ trước

Máy sấy tóc kiếm được 34,000 USD? Giải mã nghịch lý phản xạ của thị trường dự đoán

marsbit1 giờ trước

Lựa Chọn Biên Tập Hàng Tuần Weekly Editor's Picks (0418-0424)

Tóm tắt Tuần Biên tập Viên (18/04-24/04): Thông tin chuyên sâu, bỏ qua tin nhiễu. **Tình hình vĩ mô:** Thị trường dầu mỏ đối mặt nguy cơ "gián đoạn vật chất" thực sự, vượt qua điểm tới hạn. Việc đóng cửa eo biển Hormuz có thể dẫn đến tình trạng thiếu hụt thực tế, nơi giá cả mất đi khả năng điều tiết. **Đầu tư & Khởi nghiệp:** - Báo cáo toàn cầu về Crypto tiêu dùng: Vấn đề người dùng là vấn đề địa lý, Tron là blockchain chính. - Chiến lược giao dịch altcoin: Vào sớm, giữ vị thế ngắn, chốt lời nhanh. - VC vòng đầu (Series A trở đi) còn khoảng 60-70 tỷ USD. - Nhà phân tích Phó Bằng: Tài sản crypto đã đủ trưởng thành để đưa vào danh mục đầu tư. **Thị trường dự đoán (Prediction Market):** - Polymarket không chỉ là đoán sự kiện, mà là hiểu luật chơi. Lợi thế đến từ việc hiểu sâu các quy tắc. - Giao dịch ứng viên tỷ lệ thấp (như LeBron James) chủ yếu là "người mua vé số, bot, và săn tiền thưởng". **CeFi & DeFi:** - Aave đang đánh mất ngai vàng cho vay DeFi do xử lý khủng hoảng kém. - Dự án World Liberty Financial (WLFI) gây tranh cãi với cấu trúc phân chia lợi nhuận "75/25" và rủi ro quản trị. **Tin tức nổi bật tuần:** - Căng thẳng địa chính trị tiếp diễn ở eo biển Hormuz. - SpaceX hoãn IPO, bày tỏ lo ngại về công nghệ AI vũ trụ. - SEC Mỹ đẩy mạnh xây dựng khuôn khổ quy định cho tài sản số. - Sự cố bảo mật lớn: Kelp DAO bị tấn công, thiệt hại gần 300 triệu USD. Người sáng lập Aave quyên góp 5000 ETH để hỗ trợ giải quyết. - Polymarket thông báo sắp ra mắt hợp đồng vĩnh cửu (perpetuals).

marsbit1 giờ trước

Lựa Chọn Biên Tập Hàng Tuần Weekly Editor's Picks (0418-0424)

marsbit1 giờ trước

Giao dịch

Giao ngay
Hợp đồng Tương lai

Bài viết Nổi bật

AGENT S là gì

Agent S: Tương Lai của Tương Tác Tự Động trong Web3 Giới thiệu Trong bối cảnh không ngừng phát triển của Web3 và tiền điện tử, các đổi mới đang liên tục định nghĩa lại cách mà cá nhân tương tác với các nền tảng kỹ thuật số. Một dự án tiên phong như vậy, Agent S, hứa hẹn sẽ cách mạng hóa tương tác giữa con người và máy tính thông qua khung tác nhân mở của nó. Bằng cách mở đường cho các tương tác tự động, Agent S nhằm đơn giản hóa các nhiệm vụ phức tạp, cung cấp các ứng dụng chuyển đổi trong trí tuệ nhân tạo (AI). Cuộc khám phá chi tiết này sẽ đi sâu vào những phức tạp của dự án, các tính năng độc đáo của nó và những tác động đối với lĩnh vực tiền điện tử. Agent S là gì? Agent S đứng vững như một khung tác nhân mở đột phá, được thiết kế đặc biệt để giải quyết ba thách thức cơ bản trong việc tự động hóa các nhiệm vụ máy tính: Thu thập Kiến thức Cụ thể theo Miền: Khung này học một cách thông minh từ nhiều nguồn kiến thức bên ngoài và kinh nghiệm nội bộ. Cách tiếp cận kép này giúp nó xây dựng một kho lưu trữ phong phú về kiến thức cụ thể theo miền, nâng cao hiệu suất của nó trong việc thực hiện nhiệm vụ. Lập Kế Hoạch Qua Các Tầm Nhìn Nhiệm Vụ Dài Hạn: Agent S sử dụng lập kế hoạch phân cấp tăng cường kinh nghiệm, một cách tiếp cận chiến lược giúp phân chia và thực hiện các nhiệm vụ phức tạp một cách hiệu quả. Tính năng này nâng cao đáng kể khả năng quản lý nhiều nhiệm vụ con một cách hiệu quả và hiệu suất. Xử Lý Các Giao Diện Động, Không Đều: Dự án giới thiệu Giao Diện Tác Nhân-Máy Tính (ACI), một giải pháp đổi mới giúp nâng cao tương tác giữa các tác nhân và người dùng. Sử dụng các Mô Hình Ngôn Ngữ Lớn Đa Phương Thức (MLLMs), Agent S có thể điều hướng và thao tác các giao diện người dùng đồ họa đa dạng một cách liền mạch. Thông qua những tính năng tiên phong này, Agent S cung cấp một khung vững chắc giải quyết các phức tạp liên quan đến việc tự động hóa tương tác giữa con người với máy móc, mở ra nhiều ứng dụng trong AI và hơn thế nữa. Ai là Người Tạo ra Agent S? Mặc dù khái niệm về Agent S là hoàn toàn đổi mới, thông tin cụ thể về người sáng lập vẫn còn mơ hồ. Người sáng lập hiện vẫn chưa được biết đến, điều này làm nổi bật giai đoạn sơ khai của dự án hoặc sự lựa chọn chiến lược để giữ kín các thành viên sáng lập. Bất chấp sự ẩn danh, sự chú ý vẫn tập trung vào khả năng và tiềm năng của khung này. Ai là Các Nhà Đầu Tư của Agent S? Vì Agent S còn tương đối mới trong hệ sinh thái mã hóa, thông tin chi tiết về các nhà đầu tư và những người tài trợ tài chính của nó không được ghi chép rõ ràng. Sự thiếu vắng thông tin công khai về các nền tảng đầu tư hoặc tổ chức hỗ trợ dự án dấy lên câu hỏi về cấu trúc tài trợ và lộ trình phát triển của nó. Hiểu biết về sự hỗ trợ là rất quan trọng để đánh giá tính bền vững và tác động tiềm năng của dự án. Agent S Hoạt Động Như Thế Nào? Tại cốt lõi của Agent S là công nghệ tiên tiến cho phép nó hoạt động hiệu quả trong nhiều bối cảnh khác nhau. Mô hình hoạt động của nó được xây dựng xung quanh một số tính năng chính: Tương Tác Giống Như Con Người: Khung này cung cấp lập kế hoạch AI tiên tiến, cố gắng làm cho các tương tác với máy tính trở nên trực quan hơn. Bằng cách bắt chước hành vi của con người trong việc thực hiện nhiệm vụ, nó hứa hẹn nâng cao trải nghiệm người dùng. Ký Ức Tường Thuật: Được sử dụng để tận dụng các trải nghiệm cấp cao, Agent S sử dụng ký ức tường thuật để theo dõi lịch sử nhiệm vụ, từ đó nâng cao quy trình ra quyết định của nó. Ký Ức Tình Huống: Tính năng này cung cấp cho người dùng hướng dẫn từng bước, cho phép khung này cung cấp hỗ trợ theo ngữ cảnh khi các nhiệm vụ diễn ra. Hỗ Trợ OpenACI: Với khả năng chạy cục bộ, Agent S cho phép người dùng duy trì quyền kiểm soát đối với các tương tác và quy trình làm việc của họ, phù hợp với tinh thần phi tập trung của Web3. Tích Hợp Dễ Dàng với Các API Bên Ngoài: Tính linh hoạt và khả năng tương thích với nhiều nền tảng AI khác nhau đảm bảo rằng Agent S có thể hòa nhập liền mạch vào các hệ sinh thái công nghệ hiện có, làm cho nó trở thành lựa chọn hấp dẫn cho các nhà phát triển và tổ chức. Những chức năng này cùng nhau góp phần vào vị trí độc đáo của Agent S trong không gian tiền điện tử, khi nó tự động hóa các nhiệm vụ phức tạp, nhiều bước với sự can thiệp tối thiểu của con người. Khi dự án phát triển, các ứng dụng tiềm năng của nó trong Web3 có thể định nghĩa lại cách mà các tương tác kỹ thuật số diễn ra. Thời Gian Phát Triển của Agent S Sự phát triển và các cột mốc của Agent S có thể được tóm tắt trong một dòng thời gian nêu bật các sự kiện quan trọng của nó: 27 tháng 9, 2024: Khái niệm về Agent S được ra mắt trong một bài nghiên cứu toàn diện mang tên “Một Khung Tác Nhân Mở Sử Dụng Máy Tính Như Một Con Người,” trình bày nền tảng cho dự án. 10 tháng 10, 2024: Bài nghiên cứu được công bố công khai trên arXiv, cung cấp một cái nhìn sâu sắc về khung và đánh giá hiệu suất của nó dựa trên tiêu chuẩn OSWorld. 12 tháng 10, 2024: Một video trình bày được phát hành, cung cấp cái nhìn trực quan về khả năng và tính năng của Agent S, thu hút thêm sự quan tâm từ người dùng và nhà đầu tư tiềm năng. Những dấu mốc trong dòng thời gian không chỉ minh họa sự tiến bộ của Agent S mà còn chỉ ra cam kết của nó đối với sự minh bạch và sự tham gia của cộng đồng. Những Điểm Chính Về Agent S Khi khung Agent S tiếp tục phát triển, một số thuộc tính chính nổi bật, nhấn mạnh tính đổi mới và tiềm năng của nó: Khung Đổi Mới: Được thiết kế để cung cấp cách sử dụng máy tính trực quan giống như tương tác của con người, Agent S mang đến một cách tiếp cận mới cho việc tự động hóa nhiệm vụ. Tương Tác Tự Động: Khả năng tương tác tự động với máy tính thông qua GUI đánh dấu một bước tiến tới các giải pháp tính toán thông minh và hiệu quả hơn. Tự Động Hóa Nhiệm Vụ Phức Tạp: Với phương pháp mạnh mẽ của nó, nó có thể tự động hóa các nhiệm vụ phức tạp, nhiều bước, làm cho các quy trình nhanh hơn và ít sai sót hơn. Cải Tiến Liên Tục: Các cơ chế học tập cho phép Agent S cải thiện từ các trải nghiệm trước đó, liên tục nâng cao hiệu suất và hiệu quả của nó. Tính Linh Hoạt: Khả năng thích ứng của nó trên các môi trường hoạt động khác nhau như OSWorld và WindowsAgentArena đảm bảo rằng nó có thể phục vụ một loạt các ứng dụng rộng rãi. Khi Agent S định vị mình trong bối cảnh Web3 và tiền điện tử, tiềm năng của nó để nâng cao khả năng tương tác và tự động hóa quy trình đánh dấu một bước tiến quan trọng trong công nghệ AI. Thông qua khung đổi mới của mình, Agent S minh họa cho tương lai của các tương tác kỹ thuật số, hứa hẹn một trải nghiệm liền mạch và hiệu quả hơn cho người dùng trên nhiều ngành công nghiệp khác nhau. Kết luận Agent S đại diện cho một bước nhảy vọt táo bạo trong sự kết hợp giữa AI và Web3, với khả năng định nghĩa lại cách chúng ta tương tác với công nghệ. Mặc dù vẫn còn ở giai đoạn đầu, những khả năng cho ứng dụng của nó là rộng lớn và hấp dẫn. Thông qua khung toàn diện của mình giải quyết các thách thức quan trọng, Agent S nhằm đưa các tương tác tự động lên hàng đầu trong trải nghiệm kỹ thuật số. Khi chúng ta tiến sâu hơn vào các lĩnh vực tiền điện tử và phi tập trung, các dự án như Agent S chắc chắn sẽ đóng một vai trò quan trọng trong việc định hình tương lai của công nghệ và sự hợp tác giữa con người với máy tính.

Tổng lượt xem 657Xuất bản vào 2025.01.14Cập nhật vào 2025.01.14

AGENT S là gì

Làm thế nào để Mua S

Chào mừng bạn đến với HTX.com! Chúng tôi đã làm cho mua Sonic (S) trở nên đơn giản và thuận tiện. Làm theo hướng dẫn từng bước của chúng tôi để bắt đầu hành trình tiền kỹ thuật số của bạn.Bước 1: Tạo Tài khoản HTX của BạnSử dụng email hoặc số điện thoại của bạn để đăng ký tài khoản miễn phí trên HTX. Trải nghiệm hành trình đăng ký không rắc rối và mở khóa tất cả tính năng. Nhận Tài khoản của tôiBước 2: Truy cập Mua Crypto và Chọn Phương thức Thanh toán của BạnThẻ Tín dụng/Ghi nợ: Sử dụng Visa hoặc Mastercard của bạn để mua Sonic (S) ngay lập tức.Số dư: Sử dụng tiền từ số dư tài khoản HTX của bạn để giao dịch liền mạch.Bên thứ ba: Chúng tôi đã thêm những phương thức thanh toán phổ biến như Google Pay và Apple Pay để nâng cao sự tiện lợi.P2P: Giao dịch trực tiếp với người dùng khác trên HTX.Thị trường mua bán phi tập trung (OTC): Chúng tôi cung cấp những dịch vụ được thiết kế riêng và tỷ giá hối đoái cạnh tranh cho nhà giao dịch.Bước 3: Lưu trữ Sonic (S) của BạnSau khi mua Sonic (S), lưu trữ trong tài khoản HTX của bạn. Ngoài ra, bạn có thể gửi đi nơi khác qua chuyển khoản blockchain hoặc sử dụng để giao dịch những tiền kỹ thuật số khác.Bước 4: Giao dịch Sonic (S)Giao dịch Sonic (S) dễ dàng trên thị trường giao ngay của HTX. Chỉ cần truy cập vào tài khoản của bạn, chọn cặp giao dịch, thực hiện giao dịch và theo dõi trong thời gian thực. Chúng tôi cung cấp trải nghiệm thân thiện với người dùng cho cả người mới bắt đầu và người giao dịch dày dạn kinh nghiệm.

Tổng lượt xem 1.3kXuất bản vào 2025.01.15Cập nhật vào 2025.03.21

Làm thế nào để Mua S

Thảo luận

Chào mừng đến với Cộng đồng HTX. Tại đây, bạn có thể được thông báo về những phát triển nền tảng mới nhất và có quyền truy cập vào thông tin chuyên sâu về thị trường. Ý kiến ​​của người dùng về giá của S (S) được trình bày dưới đây.

活动图片