Not Just DeepSeek, Big Tech Companies Want to 'Abandon' NVIDIA

marsbitPubblicato 2026-04-24Pubblicato ultima volta 2026-04-24

Introduzione

The article discusses how major tech companies are attempting to reduce their reliance on Nvidia, despite its dominant position in the AI chip market, where it enjoys a 75.2% GAAP gross margin. Companies like DeepSeek are adapting their models to run on domestic alternatives such as Huawei’s Ascend chips, while in the U.S., Google and Meta are developing their own AI chips (TPU and MTIA series) to complement external partnerships. Nvidia’s CEO, Jensen Huang, acknowledges that Moore’s Law is fading and that export restrictions may slow China’s AI development but could ultimately spur a self-sufficient ecosystem. Notably, Chinese firms are leading in open-source models, which could eventually challenge Nvidia’s monopoly. OpenAI is actively diversifying away from Nvidia, signing a $20 billion deal with Cerebras, a startup using wafer-scale chips to reduce latency and cost. Cerebras, founded by Andrew Feldman, aims to challenge Nvidia with its unique architecture but faces financial and competitive risks, including heavy dependence on OpenAI and geopolitical tensions. While competition is intensifying with players like AMD and Groq (which partnered with Nvidia), the overall demand for compute continues to grow. The market is shifting toward a diversified supplier model, though Nvidia remains a formidable force.

The whole world covets NVIDIA's business.

According to NVIDIA's Q4 FY2026 (ending January 2026) earnings report, its GAAP gross margin was as high as 75.2%, making it practically a money-printing machine. This immense profitability stems primarily from its dominant position in the AI chip market, which grants it powerful pricing power.

Almost all large language models run on NVIDIA's computing chips, supporting its nearly $5 trillion market capitalization.

But precisely because of this, almost all major AI companies are openly or covertly trying to break free from NVIDIA's cage, unwilling to hand over their fate to it. The recently released DeepSeek V4, based on its technical report, was most likely trained using NVIDIA chips, but it is being adapted for inference on Huawei's Ascend computing chips. Furthermore, it stated that the token cost for the Pro version will be significantly reduced after the launch of Huawei's Ascend 950 in the second half of the year. Additionally, besides Huawei Ascend, domestic chip manufacturers like Tianshu Zhixin and Cambricon have also announced support for the new DeepSeek V4 model.

In NVIDIA's home turf, the US, Google developed its own TPU (Tensor Processing Unit) computing chips. As of April 2026, the TPU has reached its eighth generation, forming a complete product line of training and inference chips. In March, Meta also disclosed its roadmap for self-developed AI chips, planning to deploy four new products in the MTIA series by the end of 2027 to meet the internal AI business computing needs, while maintaining large-scale procurement partnerships with NVIDIA and AMD, building a dual-track computing power system of "self-developed + external procurement".

Yes, for the time being, no AI company can bypass NVIDIA, but Jensen Huang still senses the crisis. In a recent podcast interview, Huang stated that Moore's Law is coming to an end, meaning the era of chip performance doubling every year is over. The performance advantage of today's most advanced chips is not a permanent moat, but a relative advantage with a time window. Once the manufacturing process approaches physical limits, the difficulty for latecomers to catch up will actually decrease.

Huang said that restricting the export of computing chips to China would indeed slow down the development speed of Chinese AI in the short term, but in the long run, it will only force China to form its own ecosystem. What he didn't delve into further is that currently, only Chinese AI companies are committed to open source, and are being adopted by numerous companies and startups. If more and more open-source models run on Chinese-made computing chips, then even if NVIDIA still holds the number one market position, it will no longer be the only one.

In fact, even without the threat of Chinese open-source large models and computing chips, market competition is likely to push the computing chip industry towards a duopoly structure, rather than letting NVIDIA dominate alone.

Interestingly, among them, OpenAI, which is extremely dependent on NVIDIA, is ironically the most active in "backstabbing" it.

01

On April 17 local time, US AI chip manufacturer Cerebras officially submitted an IPO application to the US SEC, aiming to raise $3 billion with a valuation of $35 billion.

After withdrawing its previous IPO application in October 2025, this challenger to NVIDIA, whose core selling point is "wafer-scale chips," launched another IPO冲刺 (sprint) within six months, successfully pushing its company valuation from $8.1 billion to $35 billion.

The core pillar of this valuation surge is a cooperation agreement with OpenAI worth over $20 billion.

According to the agreement, OpenAI commits to using server clusters powered by Cerebras chips over the next three years. Cerebras will deploy 750 megawatts of computing power for the latter, expected to be fully deployed by 2028. Additionally, OpenAI will provide Cerebras with approximately $1 billion in funding to help develop its data centers and obtain about 10% in warrants.

Clearly, OpenAI is no longer just a simple client; it is a creditor and potentially a major future stakeholder. The decision to re-initiate the IPO冲刺 at this time is likely a joint decision by both companies.

On the same day Cerebras submitted its IPO documents, three core OpenAI executives, including Sora lead Bill Peebles, announced their departure. Meanwhile, the $500 billion "Stargate" plan, once seen as a milestone in US AI infrastructure, is also in disarray, with internal coordination and financing issues progressing slowly.

According to media disclosures, OpenAI's revenue in 2025 was $13.1 billion, with losses as high as $8 billion. Losses are预计 to soar to $25 billion this year. Under the pressure of huge losses, OpenAI even had to make painful cuts, shutting down the popular video generation product Sora.

Some analysis suggests that Sora's daily computing power cost was approximately $15 million, with the cost of a 10-second high-precision video around $33. During Sora's operation, total user payment revenue was only $2.1 million.

In such turbulent times, Altman naturally understands that over-reliance on NVIDIA would become OpenAI's biggest weakness.

Previously, OpenAI announced collaborations with Broadcom to develop custom chips and adopted AMD's new MI450 chips, frequently sending clear signals to the outside world—it no longer wants to work for NVIDIA. It is against this backdrop that Cerebras became a key bet in OpenAI's "de-NVIDIAization" strategy.

Although Cerebras is not widely known, it has uniqueness among chip manufacturing companies.

Almost all chip design giants follow the "cut the wafer, make small chips" route. Cerebras, however, focused on the "memory wall" encountered when data is moved between chips, thus adopting a more aggressive single-chip technology路线.

Cerebras's core product is the Wafer-Scale Engine WSE-3, a single chip made from an entire 300mm wafer. Because computation, storage, and interconnection are all within a single chip, data transmission latency is reduced by 90% compared to GPU clusters, making it particularly suitable for low-latency inference of large models.

In inference scenarios, the wafer-scale architecture is expected to reduce the cost per token by 80%.

OpenAI's head of computing infrastructure stated that Cerebras has added a dedicated low-latency inference solution to the platform, which will not only allow users to get faster response times but also lay the foundation for expanding real-time AI technology to a broader user base.

More importantly, Cerebras's non-HBM dependent route might break NVIDIA's near-monopoly in the chip industry, making computing power supply more diverse.

All of these恰好 hit OpenAI's pain points perfectly, making the collaboration between the two a natural fit.

Besides OpenAI, Cerebras also reached a cooperation agreement with AWS in March. The CS-3 will be deployed in Amazon's data centers, entering the infrastructure system of mainstream hyperscale cloud platforms.

02

"The most exciting thing about this rapidly iterating industry is that algorithms will continue to become faster, more accurate, and more efficient—precisely why I am unwilling to投身 those traditional industries that remain unchanged for nine years."

Cerebras's ability to reach its current position is closely tied to its founder, Andrew Feldman.

Unlike typical chip company founders who are engineers, Feldman graduated from Stanford University with bachelor's degrees in Economics and Political Science and an MBA. From the beginning of his career, he consistently accumulated experience in product and marketing fields. This career path gave him a natural instinct for what kind of business model could succeed.

As his experience grew, Feldman gradually transitioned from an employee to a serial entrepreneur.

And all serial entrepreneurs have one极其明显的 characteristic—they want to win, desperately. These people aren't just ordinarily "competitive"; they treat "winning" as indispensable as breathing. They typically choose to bet in the "no man's land" of industry consensus, going all-in on directions most people consider "unnecessary" or "impossible." In other words, they have a relatively large "gambling spirit."

In 2007, Feldman founded the server company SeaMicro.

"Today's large processors are like us driving a space shuttle to the grocery store. Actually, I just need to drive a Prius."

SeaMicro abandoned the traditional server approach of "piling on components." It removed all components except the CPU, memory, and a self-developed ASIC, providing "more cores" for specialized internet companies needing "scale-out" workloads. The company was acquired by AMD for $355 million in 2012.

Although the microserver business gradually faded into obscurity after being integrated into AMD, this experience allowed Feldman to accumulate wealth and further solidify his entrepreneurial methodology: at the node of generational change, use "counter-mainstream" hardware design to切入细分 markets not yet covered by giants.

According to industry conventions, chip yield decreases as area increases. While chip companies were all following NVIDIA's path forward, Feldman decided, in a very "layman" way of thinking, to directly make a single chip the size of a plate.

In 2015, Feldman and his technical partner Gary Lauterbach共同 founded Cerebras and brought in several former colleagues from SeaMicro. Cerebras remained silent for a full four years until it released the first-generation WSE-1 in August 2019.

During this obscure R&D period, Feldman was betting on two things: one was that TSMC's wafer-level packaging technology would gradually mature, and the other was that AI models would become so large that the memory wall of GPUs would become a fatal bottleneck.

Judging from current developments, he bet correctly.

From 2019 to 2024, Cerebras launched a new generation every two years, with the process jumping from 16nm to 7nm to 5nm, and the number of transistors rolling from 1.2 trillion to 4 trillion. Meanwhile, Feldman began actively seeking out major clients. In 2023, he flew to Abu Dhabi and secured G42.

Cerebras and G42 collaborated to train the leading language model in the Arabic language domain and jointly created Condor Galaxy, a network of nine interconnected supercomputers. The close cooperation with this Middle Eastern enterprise also triggered a national security review of Cerebras by the US Committee on Foreign Investment, but Feldman didn't care—the review indicated his own strength.

"If you only work 38 hours a week and还想挑战 an 800-pound gorilla like NVIDIA? No way. You need every waking minute."

Feldman was once asked in an interview about his views on "work-life balance," and he gave a rather radical negative answer. He毫不掩饰 his ambition to challenge NVIDIA.

Referencing NVIDIA's hundred-fold growth over ten years, Feldman holds a optimistic outlook for Cerebras's prospects: to develop treatment plans for millions of patients in the next 3 to 5 years; to provide inference computing power for applications yet to be born; to allow the public to use the company's technology without even noticing it.

03

Cerebras's冲刺 IPO faces constant controversy. Optimists look forward to witnessing the birth of a second NVIDIA, while naysayers question the stability of its performance.

According to officially disclosed financial information, Cerebras's revenue grew from $24.6 million in 2022 to $510 million in 2025, with a four-year compound annual growth rate of 175%. Particularly突出的是, the GAAP net profit in 2025 was $238 million, successfully reversing the颓势 of a net loss of $482 million in 2024.

However, a closer analysis reveals that the GAAP profit benefited from a non-cash book gain of $363 million. This gain was actually an accounting operation resulting from the removal of G42-related liabilities from the balance sheet due to the US security review. Excluding this non-recurring item, the company's non-GAAP net loss was actually $75.7 million.

In other words, Cerebras's "return to profitability" is an accounting game.

In 2023 and 2024, G42 contributed 83% and 87% of Cerebras's total revenue, respectively. With geopolitical conflicts becoming increasingly severe, the risk of relying on a single customer from the Middle East is可想而知. After all, Cerebras's first IPO withdrawal was partly due to national security reviews.

According to the prospectus, the company's remaining performance obligations,高达 $24.6 billion, rely heavily on the $20 billion agreement signed with OpenAI. In other words, Cerebras's expected revenue is almost entirely based on OpenAI's forward commitments, rather than a diversified large-scale customer base.

Whether this "shot in the arm" order can be fulfilled depends on the fate of OpenAI itself. When the stability of the largest customer itself is being反复打量 by the market, how much of this "blank check" can be realized is something恐怕 Feldman himself cannot guarantee.

A comparison with NVIDIA更能看出 Cerebras's disadvantages.

Even before the AI industry's big explosion, NVIDIA had already established a diversified customer base across multiple fields such as gaming, professional visualization, and data centers. No single customer accounted for more than 10% of its revenue. Over more than twenty years of evolution, NVIDIA has deeply bound itself with millions of developers. Every product iteration stems from the needs of internal ecosystem expansion, and its product planning path is very clear. Cerebras's ecosystem is at a very early stage, still achieving only a single-point breakthrough in inference scenarios, and has a long way to go before becoming a true platform company.

Even without the sudden emergence of ChatGPT, NVIDIA was a high-quality company with stable revenue and considerable profits. But if the $20 billion order from OpenAI were to disappear, Cerebras恐怕 wouldn't even have the possibility of冲刺 an IPO.

In December 2025, NVIDIA reached a special cooperation agreement worth approximately $20 billion in cash with Cerebras's competitor Groq. NVIDIA obtained a permanent non-exclusive license for Groq's LPU inference architecture and full-stack chip design technology.

Jensen Huang's entry signifies that the value of Cerebras's low-latency dedicated inference architecture has been recognized by industry giants, but it also急剧 increases the competitive pressure Cerebras faces.

From a practical standpoint, OpenAI引入 Cerebras is not for replacement, but to act as a "catfish" (stimulus), increasing bargaining chips and分散 supply chain risks.

There are reports that NVIDIA's system based on Groq chips will be launched in the second half of 2026. If Altman turns around and reaches an agreement with Huang again, Cerebras could easily become the sacrifice.

In the trillion-dollar AI chip track, diversified competition is undoubtedly good for the long-term development of the industry ecosystem. But the capital market is never short of wealth creation myths and舆论炒作. Whether Cerebras can truly deliver on its technological and commercial value still requires overcoming multiple tests.

The appealing title of "NVIDIA challenger" might also turn out to be a short-lived bubble.

But as the "Jevons Paradox" reveals, technological progress improves resource utilization efficiency and reduces the cost per unit output, but because people can afford to use more and use it more widely, it反而 leads to an increase in the total consumption of resources. As AI渗透 more extensively into all aspects of people's lives, computing power demand will continue to grow rapidly in the foreseeable future.

This super-large market worth hundreds of billions or even thousands of billions of dollars is not only about economics but also involves geopolitical security. No one wants to hand over the keys to their fate to be held by NVIDIA alone.

But显然, even out of自尊, Jensen Huang will not easily hand over the keys.

This article is from WeChat public account "最话FunTalk" (ID: iFuntalker), author: He Yiran, editor: Liu Yuxiang

Domande pertinenti

QWhy are major AI companies trying to reduce their reliance on NVIDIA?

ADue to NVIDIA's dominant market position and pricing power, which gives it significant control over the AI chip supply chain. Companies like DeepSeek, Google, Meta, and OpenAI are seeking alternatives to avoid dependency, reduce costs, and diversify their supply chains for greater strategic flexibility.

QWhat is Cerebras' unique approach to AI chip design?

ACerebras uses a wafer-scale engine (WSE) design, which involves creating a single, large chip from an entire silicon wafer. This approach reduces data transfer delays by 90% compared to GPU clusters and is particularly efficient for low-latency inference in large models, potentially lowering token costs by 80%.

QHow does OpenAI's partnership with Cerebras reflect its strategy?

AOpenAI's $20 billion agreement with Cerebras is part of its 'de-NVIDIAization' strategy to diversify its AI chip supply, reduce costs, and mitigate risks associated with over-reliance on a single vendor. This move also serves as leverage in negotiations with NVIDIA and other chip suppliers.

QWhat are the financial challenges facing Cerebras despite its IPO ambitions?

ACerebras' financials show reliance on non-recurring accounting gains and a heavy dependence on a few key clients like G42 and OpenAI. Its GAAP profitability in 2025 was largely due to a one-time $363 million non-cash gain, and without the OpenAI deal, its IPO prospects would be uncertain.

QWhat broader industry trend does the competition against NVIDIA represent?

AThe competition reflects a push for a diversified, multi-vendor AI chip ecosystem rather than NVIDIA's monopoly. This is driven by economic factors (cost reduction), geopolitical concerns (e.g., U.S.-China tensions), and the desire for technological innovation beyond traditional GPU architectures.

Letture associate

Trading

Spot
Futures

Articoli Popolari

Cosa è $S$

Comprendere SPERO: Una Panoramica Completa Introduzione a SPERO Mentre il panorama dell'innovazione continua a evolversi, l'emergere delle tecnologie web3 e dei progetti di criptovaluta gioca un ruolo fondamentale nel plasmare il futuro digitale. Un progetto che ha attirato l'attenzione in questo campo dinamico è SPERO, denotato come SPERO,$$s$. Questo articolo mira a raccogliere e presentare informazioni dettagliate su SPERO, per aiutare gli appassionati e gli investitori a comprendere le sue basi, obiettivi e innovazioni nei domini web3 e crypto. Che cos'è SPERO,$$s$? SPERO,$$s$ è un progetto unico all'interno dello spazio crypto che cerca di sfruttare i principi della decentralizzazione e della tecnologia blockchain per creare un ecosistema che promuove l'impegno, l'utilità e l'inclusione finanziaria. Il progetto è progettato per facilitare interazioni peer-to-peer in modi nuovi, fornendo agli utenti soluzioni e servizi finanziari innovativi. Al suo interno, SPERO,$$s$ mira a responsabilizzare gli individui fornendo strumenti e piattaforme che migliorano l'esperienza dell'utente nello spazio delle criptovalute. Questo include la possibilità di metodi di transazione più flessibili, la promozione di iniziative guidate dalla comunità e la creazione di percorsi per opportunità finanziarie attraverso applicazioni decentralizzate (dApps). La visione sottostante di SPERO,$$s$ ruota attorno all'inclusività, cercando di colmare le lacune all'interno della finanza tradizionale mentre sfrutta i vantaggi della tecnologia blockchain. Chi è il Creatore di SPERO,$$s$? L'identità del creatore di SPERO,$$s$ rimane piuttosto oscura, poiché ci sono risorse pubblicamente disponibili limitate che forniscono informazioni dettagliate sul suo fondatore o fondatori. Questa mancanza di trasparenza può derivare dall'impegno del progetto per la decentralizzazione—un ethos che molti progetti web3 condividono, dando priorità ai contributi collettivi rispetto al riconoscimento individuale. Centrando le discussioni attorno alla comunità e ai suoi obiettivi collettivi, SPERO,$$s$ incarna l'essenza dell'empowerment senza mettere in evidenza individui specifici. Pertanto, comprendere l'etica e la missione di SPERO rimane più importante che identificare un creatore singolo. Chi sono gli Investitori di SPERO,$$s$? SPERO,$$s$ è supportato da una varietà di investitori che vanno dai capitalisti di rischio agli investitori angelici dedicati a promuovere l'innovazione nel settore crypto. Il focus di questi investitori generalmente si allinea con la missione di SPERO—dando priorità a progetti che promettono avanzamenti tecnologici sociali, inclusività finanziaria e governance decentralizzata. Queste fondazioni di investitori sono tipicamente interessate a progetti che non solo offrono prodotti innovativi, ma contribuiscono anche positivamente alla comunità blockchain e ai suoi ecosistemi. Il supporto di questi investitori rafforza SPERO,$$s$ come un concorrente degno di nota nel dominio in rapida evoluzione dei progetti crypto. Come Funziona SPERO,$$s$? SPERO,$$s$ impiega un framework multifunzionale che lo distingue dai progetti di criptovaluta convenzionali. Ecco alcune delle caratteristiche chiave che sottolineano la sua unicità e innovazione: Governance Decentralizzata: SPERO,$$s$ integra modelli di governance decentralizzati, responsabilizzando gli utenti a partecipare attivamente ai processi decisionali riguardanti il futuro del progetto. Questo approccio favorisce un senso di proprietà e responsabilità tra i membri della comunità. Utilità del Token: SPERO,$$s$ utilizza il proprio token di criptovaluta, progettato per servire varie funzioni all'interno dell'ecosistema. Questi token abilitano transazioni, premi e la facilitazione dei servizi offerti sulla piattaforma, migliorando l'impegno e l'utilità complessivi. Architettura Stratificata: L'architettura tecnica di SPERO,$$s$ supporta la modularità e la scalabilità, consentendo un'integrazione fluida di funzionalità e applicazioni aggiuntive man mano che il progetto evolve. Questa adattabilità è fondamentale per mantenere la rilevanza nel panorama crypto in continua evoluzione. Coinvolgimento della Comunità: Il progetto enfatizza iniziative guidate dalla comunità, impiegando meccanismi che incentivano la collaborazione e il feedback. Nutrendo una comunità forte, SPERO,$$s$ può affrontare meglio le esigenze degli utenti e adattarsi alle tendenze di mercato. Focus sull'Inclusione: Offrendo basse commissioni di transazione e interfacce user-friendly, SPERO,$$s$ mira ad attrarre una base utenti diversificata, inclusi individui che potrebbero non aver precedentemente interagito nello spazio crypto. Questo impegno per l'inclusione si allinea con la sua missione generale di empowerment attraverso l'accessibilità. Cronologia di SPERO,$$s$ Comprendere la storia di un progetto fornisce preziose intuizioni sulla sua traiettoria di sviluppo e sui traguardi. Di seguito è riportata una cronologia suggerita che mappa eventi significativi nell'evoluzione di SPERO,$$s$: Fase di Concettualizzazione e Ideazione: Le idee iniziali che formano la base di SPERO,$$s$ sono state concepite, allineandosi strettamente con i principi di decentralizzazione e focus sulla comunità all'interno dell'industria blockchain. Lancio del Whitepaper del Progetto: Dopo la fase concettuale, è stato rilasciato un whitepaper completo che dettaglia la visione, gli obiettivi e l'infrastruttura tecnologica di SPERO,$$s$ per suscitare interesse e feedback dalla comunità. Costruzione della Comunità e Prime Interazioni: Sono stati effettuati sforzi attivi di outreach per costruire una comunità di early adopters e potenziali investitori, facilitando discussioni attorno agli obiettivi del progetto e ottenendo supporto. Evento di Generazione del Token: SPERO,$$s$ ha condotto un evento di generazione del token (TGE) per distribuire i propri token nativi ai primi sostenitori e stabilire una liquidità iniziale all'interno dell'ecosistema. Lancio della Prima dApp: La prima applicazione decentralizzata (dApp) associata a SPERO,$$s$ è stata attivata, consentendo agli utenti di interagire con le funzionalità principali della piattaforma. Sviluppo Continuo e Partnership: Aggiornamenti e miglioramenti continui alle offerte del progetto, inclusi partnership strategiche con altri attori nello spazio blockchain, hanno plasmato SPERO,$$s$ in un concorrente competitivo e in evoluzione nel mercato crypto. Conclusione SPERO,$$s$ rappresenta una testimonianza del potenziale del web3 e delle criptovalute di rivoluzionare i sistemi finanziari e responsabilizzare gli individui. Con un impegno per la governance decentralizzata, il coinvolgimento della comunità e funzionalità progettate in modo innovativo, apre la strada verso un panorama finanziario più inclusivo. Come per qualsiasi investimento nello spazio crypto in rapida evoluzione, si incoraggiano potenziali investitori e utenti a ricercare approfonditamente e a impegnarsi in modo riflessivo con gli sviluppi in corso all'interno di SPERO,$$s$. Il progetto mostra lo spirito innovativo dell'industria crypto, invitando a ulteriori esplorazioni delle sue innumerevoli possibilità. Mentre il percorso di SPERO,$$s$ è ancora in fase di sviluppo, i suoi principi fondamentali potrebbero effettivamente influenzare il futuro di come interagiamo con la tecnologia, la finanza e tra di noi in ecosistemi digitali interconnessi.

75 Totale visualizzazioniPubblicato il 2024.12.17Aggiornato il 2024.12.17

Cosa è $S$

Cosa è AGENT S

Agent S: Il Futuro dell'Interazione Autonoma in Web3 Introduzione Nel panorama in continua evoluzione di Web3 e criptovalute, le innovazioni stanno costantemente ridefinendo il modo in cui gli individui interagiscono con le piattaforme digitali. Uno di questi progetti pionieristici, Agent S, promette di rivoluzionare l'interazione uomo-computer attraverso il suo framework agentico aperto. Aprendo la strada a interazioni autonome, Agent S mira a semplificare compiti complessi, offrendo applicazioni trasformative nell'intelligenza artificiale (AI). Questa esplorazione dettagliata approfondirà le complessità del progetto, le sue caratteristiche uniche e le implicazioni per il dominio delle criptovalute. Cos'è Agent S? Agent S si presenta come un innovativo framework agentico aperto, progettato specificamente per affrontare tre sfide fondamentali nell'automazione dei compiti informatici: Acquisizione di Conoscenze Specifiche del Dominio: Il framework apprende in modo intelligente da varie fonti di conoscenza esterne ed esperienze interne. Questo approccio duale gli consente di costruire un ricco repository di conoscenze specifiche del dominio, migliorando le sue prestazioni nell'esecuzione dei compiti. Pianificazione su Lungo Orizzonte di Compiti: Agent S impiega una pianificazione gerarchica potenziata dall'esperienza, un approccio strategico che facilita la suddivisione e l'esecuzione efficiente di compiti complessi. Questa caratteristica migliora significativamente la sua capacità di gestire più sottocompiti in modo efficiente ed efficace. Gestione di Interfacce Dinamiche e Non Uniformi: Il progetto introduce l'Interfaccia Agente-Computer (ACI), una soluzione innovativa che migliora l'interazione tra agenti e utenti. Utilizzando Modelli Linguistici Multimodali di Grandi Dimensioni (MLLM), Agent S può navigare e manipolare senza sforzo diverse interfacce grafiche utente. Attraverso queste caratteristiche pionieristiche, Agent S fornisce un framework robusto che affronta le complessità coinvolte nell'automazione dell'interazione umana con le macchine, preparando il terreno per innumerevoli applicazioni nell'AI e oltre. Chi è il Creatore di Agent S? Sebbene il concetto di Agent S sia fondamentalmente innovativo, informazioni specifiche sul suo creatore rimangono elusive. Il creatore è attualmente sconosciuto, il che evidenzia sia la fase embrionale del progetto sia la scelta strategica di mantenere i membri fondatori sotto anonimato. Indipendentemente dall'anonimato, l'attenzione rimane sulle capacità e sul potenziale del framework. Chi sono gli Investitori di Agent S? Poiché Agent S è relativamente nuovo nell'ecosistema crittografico, informazioni dettagliate riguardanti i suoi investitori e sostenitori finanziari non sono documentate esplicitamente. La mancanza di approfondimenti pubblicamente disponibili sulle fondazioni di investimento o sulle organizzazioni che supportano il progetto solleva interrogativi sulla sua struttura di finanziamento e sulla roadmap di sviluppo. Comprendere il supporto è cruciale per valutare la sostenibilità del progetto e il suo potenziale impatto sul mercato. Come Funziona Agent S? Al centro di Agent S si trova una tecnologia all'avanguardia che gli consente di funzionare efficacemente in contesti diversi. Il suo modello operativo è costruito attorno a diverse caratteristiche chiave: Interazione Uomo-Computer Simile a Quella Umana: Il framework offre una pianificazione AI avanzata, cercando di rendere le interazioni con i computer più intuitive. Mimando il comportamento umano nell'esecuzione dei compiti, promette di elevare le esperienze degli utenti. Memoria Narrativa: Utilizzata per sfruttare esperienze di alto livello, Agent S utilizza la memoria narrativa per tenere traccia delle storie dei compiti, migliorando così i suoi processi decisionali. Memoria Episodica: Questa caratteristica fornisce agli utenti una guida passo-passo, consentendo al framework di offrire supporto contestuale mentre i compiti si sviluppano. Supporto per OpenACI: Con la capacità di funzionare localmente, Agent S consente agli utenti di mantenere il controllo sulle proprie interazioni e flussi di lavoro, allineandosi con l'etica decentralizzata di Web3. Facile Integrazione con API Esterne: La sua versatilità e compatibilità con varie piattaforme AI garantiscono che Agent S possa adattarsi senza problemi agli ecosistemi tecnologici esistenti, rendendolo una scelta attraente per sviluppatori e organizzazioni. Queste funzionalità contribuiscono collettivamente alla posizione unica di Agent S all'interno dello spazio crittografico, poiché automatizza compiti complessi e multi-fase con un intervento umano minimo. Man mano che il progetto evolve, le sue potenziali applicazioni in Web3 potrebbero ridefinire il modo in cui si svolgono le interazioni digitali. Cronologia di Agent S Lo sviluppo e le tappe di Agent S possono essere riassunti in una cronologia che evidenzia i suoi eventi significativi: 27 Settembre 2024: Il concetto di Agent S è stato lanciato in un documento di ricerca completo intitolato “Un Framework Agentico Aperto che Usa i Computer Come un Umano”, mostrando le basi per il progetto. 10 Ottobre 2024: Il documento di ricerca è stato reso pubblicamente disponibile su arXiv, offrendo un'esplorazione approfondita del framework e della sua valutazione delle prestazioni basata sul benchmark OSWorld. 12 Ottobre 2024: È stata rilasciata una presentazione video, fornendo un'idea visiva delle capacità e delle caratteristiche di Agent S, coinvolgendo ulteriormente potenziali utenti e investitori. Questi indicatori nella cronologia non solo illustrano i progressi di Agent S, ma indicano anche il suo impegno per la trasparenza e il coinvolgimento della comunità. Punti Chiave su Agent S Man mano che il framework Agent S continua a evolversi, diversi attributi chiave si distinguono, sottolineando la sua natura innovativa e il potenziale: Framework Innovativo: Progettato per fornire un uso intuitivo dei computer simile all'interazione umana, Agent S porta un approccio nuovo all'automazione dei compiti. Interazione Autonoma: La capacità di interagire autonomamente con i computer attraverso GUI segna un passo avanti verso soluzioni informatiche più intelligenti ed efficienti. Automazione di Compiti Complessi: Con la sua metodologia robusta, può automatizzare compiti complessi e multi-fase, rendendo i processi più veloci e meno soggetti a errori. Miglioramento Continuo: I meccanismi di apprendimento consentono ad Agent S di migliorare dalle esperienze passate, migliorando continuamente le sue prestazioni e la sua efficacia. Versatilità: La sua adattabilità attraverso diversi ambienti operativi come OSWorld e WindowsAgentArena garantisce che possa servire un'ampia gamma di applicazioni. Man mano che Agent S si posiziona nel panorama di Web3 e delle criptovalute, il suo potenziale per migliorare le capacità di interazione e automatizzare i processi segna un significativo avanzamento nelle tecnologie AI. Attraverso il suo framework innovativo, Agent S esemplifica il futuro delle interazioni digitali, promettendo un'esperienza più fluida ed efficiente per gli utenti in vari settori. Conclusione Agent S rappresenta un audace passo avanti nell'unione tra AI e Web3, con la capacità di ridefinire il modo in cui interagiamo con la tecnologia. Sebbene sia ancora nelle sue fasi iniziali, le possibilità per la sua applicazione sono vaste e coinvolgenti. Attraverso il suo framework completo che affronta sfide critiche, Agent S mira a portare le interazioni autonome al centro dell'esperienza digitale. Man mano che ci addentriamo nei regni delle criptovalute e della decentralizzazione, progetti come Agent S giocheranno senza dubbio un ruolo cruciale nel plasmare il futuro della tecnologia e della collaborazione uomo-computer.

420 Totale visualizzazioniPubblicato il 2025.01.14Aggiornato il 2025.01.14

Cosa è AGENT S

Come comprare S

Benvenuto in HTX.com! Abbiamo reso l'acquisto di Sonic (S) semplice e conveniente. Segui la nostra guida passo passo per intraprendere il tuo viaggio nel mondo delle criptovalute.Step 1: Crea il tuo Account HTXUsa la tua email o numero di telefono per registrarti il tuo account gratuito su HTX. Vivi un'esperienza facile e sblocca tutte le funzionalità,Crea il mio accountStep 2: Vai in Acquista crypto e seleziona il tuo metodo di pagamentoCarta di credito/debito: utilizza la tua Visa o Mastercard per acquistare immediatamente SonicS.Bilancio: Usa i fondi dal bilancio del tuo account HTX per fare trading senza problemi.Terze parti: abbiamo aggiunto metodi di pagamento molto utilizzati come Google Pay e Apple Pay per maggiore comodità.P2P: Fai trading direttamente con altri utenti HTX.Over-the-Counter (OTC): Offriamo servizi su misura e tassi di cambio competitivi per i trader.Step 3: Conserva Sonic (S)Dopo aver acquistato Sonic (S), conserva nel tuo account HTX. In alternativa, puoi inviare tramite trasferimento blockchain o scambiare per altre criptovalute.Step 4: Scambia Sonic (S)Scambia facilmente Sonic (S) nel mercato spot di HTX. Accedi al tuo account, seleziona la tua coppia di trading, esegui le tue operazioni e monitora in tempo reale. Offriamo un'esperienza user-friendly sia per chi ha appena iniziato che per i trader più esperti.

835 Totale visualizzazioniPubblicato il 2025.01.15Aggiornato il 2025.03.21

Come comprare S

Discussioni

Benvenuto nella Community HTX. Qui puoi rimanere informato sugli ultimi sviluppi della piattaforma e accedere ad approfondimenti esperti sul mercato. Le opinioni degli utenti sul prezzo di S S sono presentate come di seguito.

活动图片