Chinese Large Models: This Time, the Script Is Different

marsbitPubblicato 2026-04-07Pubblicato ultima volta 2026-04-07

Introduzione

By early 2026, Chinese large language models (LLMs) have gained significant global traction, representing six of the top ten most-used on the AI model aggregation platform OpenRouter. This shift, led by models like Xiaomi's MiMo-V2-Pro, occurred after Chinese models' weekly token usage surpassed that of U.S. models in February 2026. A key driver is the substantial price gap: Chinese models are often 10–20 times cheaper for input and up to 60 times cheaper for output tokens than leading U.S. models like OpenAI’s GPT-5.4 and Anthropic’s Claude Opus. This cost advantage became critical with the rise of agentic applications like OpenClaw, which automate complex tasks (e.g., programming, testing) and consume tokens at a much higher volume than traditional chat interfaces. While U.S. models still lead in complex reasoning benchmarks, Chinese models have nearly closed the gap in programming tasks—evidenced by near-parity scores on the SWE-Bench coding evaluation. This enabled cost-conscious developers, especially in AI startups using open-source stacks, to adopt a "layered" approach: using Chinese models for routine tasks and reserving premium U.S. models for harder problems. Rising demand led Chinese firms like Zhipu and Tencent to increase API prices in early 2026, yet usage continued growing sharply. Analysts note that China’s cost edge stems from large-scale, efficient compute infrastructure and widespread adoption of MoE (Mixture of Experts) architecture. Unlike the low-marg...

By the end of 2025, the annual usage report released by OpenRouter, the world's largest AI model aggregation platform, showed that 47% of its users were from the United States, while Chinese developers accounted for 6%. Additionally, English comprised 83% of the platform's content calls, with Chinese making up less than 5%.

However, as of the week of April 3, 2026, six of the top ten models by call volume on the platform were from China. Ranked from highest to lowest call volume, they were: Xiaomi MiMo-V2-Pro, StepFun Step 3.5 Flash, MiniMax M2.7, DeepSeek V3.2, Zhipu GLM 5 Turbo, and MiniMax M2.5. Among them, Xiaomi's MiMo-V2-Pro topped the entire platform with 4.82 trillion tokens.

In fact, since the week of February 9 to 15, 2026, when the call volume of Chinese models first surpassed that of the U.S., the lead of Chinese models has been maintained for nearly two months.

The OpenRouter platform aggregates over 400 AI models, covering more than 60 suppliers. Its call volume data is regarded as one of the windows to observe the model preference of global developers. Developers can switch between different models at any time using the same API Key (a key used for authentication and service calls).

Chris Clark, co-founder and COO of OpenRouter, publicly stated in February 2026 that Chinese open-source models account for a disproportionately high share in the Agent workflows run by U.S. enterprises. Meanwhile, discussions in the developer community about task allocation between models and cost optimization are increasing.

Some views compare this phenomenon to China's manufacturing industry 30 years ago: at that time, China leveraged cost advantages to enter the assembly segment of the global electronics industry chain, giving rise to contract manufacturers like Foxconn and Luxshare Precision; today, Chinese large models are also using price advantages to enter the execution segment of the global AI industry chain. Some also view domestic large models as the "Foxconn of the AI era."

What role do domestic large models play in the AI industry chain? How high is the actual value of this role?

Price Advantage

A review by Economic Observer reporters of the official API pricing of various manufacturers as of the end of March 2026 revealed a huge price gap between mainstream large models from China and the U.S.

Taking input prices as an example, among Chinese models, DeepSeek V3.2 is $0.28 per million tokens, MiniMax M2.5 is $0.3, and Moonshot AI's Kimi K2.5 is $0.42. Among U.S. models, Anthropic's Claude Opus 4.6 is $5, and OpenAI's GPT-5.4 is $2.50. The input price of mainstream U.S. models is about 10 to 20 times that of mainstream Chinese models.

The gap in output prices is even more pronounced. For Chinese models, DeepSeek V3.2 is $0.42 per million tokens, MiniMax M2.5 is $1.1, and Moonshot AI's Kimi K2.5 is $2.2. For U.S. models, OpenAI's GPT-5.4 is $15, and Claude Opus 4.6 is $25. The output price gap between mainstream Chinese and U.S. models ranges from about 7 times to 60 times.

This price difference has always existed but did not trigger large-scale user migration previously for a simple reason: most people's primary use case for AI was chatting, where token consumption was low, and the price difference had minimal impact.

However, in early 2026, the emergence of a "lobster" changed all that. The open-source tool OpenClaw (referred to as "Lobster" by the developer community) quickly gained popularity around February 2026, soon topping OpenRouter's application rankings and consuming over 600 billion tokens in a single week. "Lobster" is an agent application. Unlike the past "question-and-answer" chat mode, it enables AI to autonomously perform tasks like programming, testing, and file management on a computer without step-by-step human intervention.

In this workflow, token consumption is on a completely different scale compared to chat scenarios.

For example, a programming task might require dozens of cycles of "write code -> run -> error -> modify -> run again," each cycle being a complete model call. To allow the agent to remember previous operations, each call also requires the conversation history.

Some developers have stated on social platforms that an active OpenClaw session context can easily expand to over 230,000 tokens. If using the Claude API throughout, the cost could range from $800 to $1500 per month. Some users reported that a misconfigured automated task burned through $200 in a single day.

Agent applications like OpenClaw have driven up the platform's overall token consumption. For instance, in the week of March 3 to 9, 2025, the total weekly call volume of the top ten models on OpenRouter was 1.24 trillion tokens. By the week of February 16 to 22, 2026, the weekly call volume of just the top ten models exceeded 8.7 trillion tokens, an increase of nearly 7 times. The proportion of programming tasks in the platform's token consumption also rose from 11% in early 2025 to over 50% by the end of 2025.

When the token consumption per task increased from thousands to hundreds of thousands, the price gap between Chinese and U.S. models transformed from a negligible cost into a significant difference of hundreds or even thousands of dollars per month.

Around February 19, 2026, U.S. large model company Anthropic updated its terms of service, prohibiting users from connecting Claude subscription account credentials to third-party tools like OpenClaw and requiring pay-as-you-go billing via API. Google subsequently imposed similar restrictions. For agent applications that require frequent API calls daily, the price factor in model selection became an unavoidable issue, pushing developers onto the pay-as-you-go track.

In the core programming scenarios for agents, the capabilities of Chinese and U.S. models are already quite close.

SWE-Bench Verified is a public evaluation of programming capabilities maintained by a research team at Princeton University. The method involves having AI models fix real code issues on GitHub (the world's largest open-source code hosting platform). According to data on the public leaderboard of this evaluation, the Chinese model MiniMax M2.5, released on February 13, 2026, scored 80.2%, while the U.S. model Claude Opus 4.6, released on February 5, scored 80.8%, a difference of only 0.6 percentage points.

With comparable capabilities but vastly different prices, developers' choices were quickly reflected in the data.

In the week of February 9 to 15, 2026, Chinese model token call volume reached 4.12 trillion, surpassing the U.S. models' 2.94 trillion for the first time. The following week, Chinese model call volume rose to 5.16 trillion, a 127% increase in three weeks. During the same period, U.S. model call volume dropped to 2.7 trillion.

Why can Chinese large models be so much cheaper than U.S. models?

Pan Helin, a member of the Expert Committee on Information and Communication Economy of the Ministry of Industry and Information Technology, told the Economic Observer that there are two main reasons: first, the scale of China's computing power infrastructure is large with high reuse rates, leading to lower quotes; second, there is a large amount of self-built computing power within Chinese computing clusters, acquired at lower costs than overseas.

Additionally, technical routes also affect costs. Some industry insiders told reporters that mainstream Chinese large models generally adopt the MoE architecture, also known as "Mixture of Experts." Simply put, although a MoE model has a large total parameter count, only a small portion of these parameters are activated to handle a task during each operation, rather than all parameters, which significantly reduces the computational load required for each inference.

Different Paths

Martin Casado, a partner at Silicon Valley venture capital firm a16z, stated at the end of 2025 that among AI startups using open-source technology stacks, about 80% use Chinese models. He later clarified on social media that this did not mean 80% of U.S. AI startups use Chinese models, but rather that among those choosing the open-source technology route (accounting for about 20% to 30% of all U.S. AI startups), about 80% use Chinese models.

Reporters noted that multiple open-source tools have appeared on GitHub to help developers optimize costs across different models. The general idea is to grade tasks by difficulty, assigning simple tasks to free or low-cost Chinese models and reserving complex tasks for expensive U.S. models.

One project named ClawRouter provided comparative data in its documentation, showing that after adopting this mixed approach, the average cost dropped from $25 per million tokens to about $2. Anthropic's product ClaudeCode also uses a similar hierarchical design in its official documentation, defaulting to the cheapest model for routine tasks.

The premise for this model to work is that Chinese models are sufficiently capable in execution tasks. In programming, the SWE-Bench data mentioned earlier illustrates this point. But beyond programming, how large is the overall capability gap between Chinese and U.S. large models?

LMSYS Chatbot Arena is one of the globally most recognized AI model evaluation platforms. Its method involves having real users trial two models simultaneously without knowing their names, then voting for the better one, equivalent to a blind taste test for AIs.

In its comprehensive rankings as of March 25, 2026, the top five positions were all held by U.S. company models. The highest-ranked Chinese model, DeepSeek V3.2 Speciale, was sixth. The gap is more pronounced in the Hard Prompts category (specifically designed to test a model's ability to handle complex reasoning and multi-step logic tasks), where the first tier is still primarily composed of U.S. models.

Close programming capabilities but a remaining gap in complex reasoning—this is the manifestation of the differentiated capabilities between Chinese and U.S. large models today and the foundation for the viability of the "layered calling" approach.

However, unlike being locked into low-profit-margin contract manufacturing 30 years ago, Chinese large model vendors have not continuously driven prices down.

In fact, the Chinese large model industry experienced a price war starting in 2024: In May 2024, ByteDance's Volcano Engine Doubao model triggered a "price war" with a price of 0.0008 yuan per thousand tokens, followed by Alibaba Cloud and Baidu Intelligent Cloud. In the nearly year that followed, the industry saw token prices drop by over 90%, with inference computing毛利率 (gross margin) for some vendors turning negative at times.

The strategy for vendors at the time was to accept losses to gain scale and cultivate user calling habits. However, after OpenClaw's popularity surge in February 2026, token consumption growth far exceeded expectations, and computing power supply tightened.

Zhipu was the first to react. It raised API pricing when releasing the new model GLM-5 on February 12, 2026, and raised prices again when releasing GLM-5-Turbo on March 16, with a cumulative increase of 83% over the two rounds.

Zhipu CEO Zhang Peng stated at the 2025 annual performance briefing that API call pricing increased by 83% in Q1 2026, while call volume grew by 400%. According to the annual report, Zhipu's full-year revenue for 2025 was 724.3 million yuan, a year-on-year increase of 132%, and the annual recurring revenue of its MaaS (Model-as-a-Service) platform was approximately 1.7 billion yuan, a 60-fold increase in 12 months.

Zhipu wasn't the only one choosing to raise prices. On March 13, 2026, Tencent Cloud adjusted pricing for its Hunyuan series large models, with some models seeing increases of over 460%. On March 18, Alibaba Cloud and Baidu Intelligent Cloud issued price adjustment announcements on the same day, with increases for AI computing power-related products ranging from 5% to 34%, effective April 18.

Li Bin, Senior Vice President of Sugon, told the Economic Observer in an interview that the evaluation metrics for computing power systems are changing. The past standard for measuring a system was its amount of computing power, but now it's about how economically it can produce tokens.

The shift from collective price cuts to collective price hikes took less than two years.

In March 2026, Liu Liehong, head of the National Data Bureau, announced a set of figures at the China Development Forum: China's daily token call volume has exceeded 140 trillion, an increase of over 1000 times compared to two years ago.

At the GTC conference the same month, NVIDIA founder Jensen Huang stated that tokens would be the most core commodity in the future digital world.

In Pan Helin's view, the competitiveness of Chinese large models is strong; they are not catching up but leading, especially on the AI application end. However, he also stated that China still has room for improvement in original innovation. The core architectures in the current AI system, from artificial neural networks to attention mechanisms, were first proposed overseas and then iterated upon domestically. The next step for Chinese large models is to continue efforts on the application end while also pursuing original innovation in basic algorithms.

The consumer electronics contract manufacturing industry 30 years ago had a characteristic: the profit margin of the assembly segment was firmly suppressed by upstream brand owners. Many leading contract manufacturers still have gross margins not exceeding 10% today. Cost advantages brought orders but did not bring pricing power.

Currently, the situation of Chinese large models seems somewhat similar to the consumer electronics contract manufacturing industry back then, but seems quite different regarding pricing power. For example, after Zhipu raised prices by 83%, call volume grew by 400%. Alibaba Cloud, Baidu Intelligent Cloud, and Tencent Cloud collectively raised prices for AI computing power and model services in March 2026; demand did not shrink, and call volume continued to grow.

On the SWE-Bench programming evaluation, the gap between top Chinese models and top U.S. models has narrowed to less than 1 percentage point. The gap in complex reasoning remains, but it is also narrowing rapidly.

This time, the development path for Chinese large model manufacturers seems to be different.

This article is from the WeChat public account "Economic Observer", author: Zheng Chenye

Domande pertinenti

QWhat percentage of AI model calls on OpenRouter came from Chinese models during the week of April 3, 2026?

ASix out of the top ten most called models on OpenRouter during the week of April 3, 2026, were from China, with Xiaomi's MiMo-V2-Pro ranking first with 4.82 trillion tokens.

QWhat is the main reason cited for the significant price difference between Chinese and American AI models?

AThe main reasons are China's large-scale, highly utilized computing infrastructure with lower pricing, the prevalence of self-built computing clusters with lower acquisition costs, and the widespread adoption of the MoE (Mixture of Experts) architecture which reduces computational requirements per task.

QWhat specific event in early 2026 triggered a massive shift in developer preference towards Chinese AI models?

AThe rise of the intelligent agent application 'OpenClaw' (also known as 'Lobster') in February 2026, which drastically increased token consumption for automated tasks like programming, making the large price gap between Chinese and American models a significant financial factor for developers.

QHow did Chinese AI model companies change their pricing strategy in response to surging demand in early 2026?

AAfter a previous price war, Chinese companies collectively shifted from cutting prices to raising them. For example, Zhipu raised its API prices by 83% over two adjustments, and other major providers like Alibaba Cloud, Baidu Cloud, and Tencent Cloud also announced significant price increases for their AI models and computing power.

QAccording to the SWE-Bench programming evaluation, how did the capabilities of top Chinese models compare to their American counterparts?

AAs of the data cited from February 2026, the gap was very small. The Chinese model MiniMax M2.5 scored 80.2% on the SWE-Bench benchmark, while the American model Claude Opus 4.6 scored 80.8%, a difference of only 0.6 percentage points.

Letture associate

Trading

Spot
Futures

Articoli Popolari

Cosa è $S$

Comprendere SPERO: Una Panoramica Completa Introduzione a SPERO Mentre il panorama dell'innovazione continua a evolversi, l'emergere delle tecnologie web3 e dei progetti di criptovaluta gioca un ruolo fondamentale nel plasmare il futuro digitale. Un progetto che ha attirato l'attenzione in questo campo dinamico è SPERO, denotato come SPERO,$$s$. Questo articolo mira a raccogliere e presentare informazioni dettagliate su SPERO, per aiutare gli appassionati e gli investitori a comprendere le sue basi, obiettivi e innovazioni nei domini web3 e crypto. Che cos'è SPERO,$$s$? SPERO,$$s$ è un progetto unico all'interno dello spazio crypto che cerca di sfruttare i principi della decentralizzazione e della tecnologia blockchain per creare un ecosistema che promuove l'impegno, l'utilità e l'inclusione finanziaria. Il progetto è progettato per facilitare interazioni peer-to-peer in modi nuovi, fornendo agli utenti soluzioni e servizi finanziari innovativi. Al suo interno, SPERO,$$s$ mira a responsabilizzare gli individui fornendo strumenti e piattaforme che migliorano l'esperienza dell'utente nello spazio delle criptovalute. Questo include la possibilità di metodi di transazione più flessibili, la promozione di iniziative guidate dalla comunità e la creazione di percorsi per opportunità finanziarie attraverso applicazioni decentralizzate (dApps). La visione sottostante di SPERO,$$s$ ruota attorno all'inclusività, cercando di colmare le lacune all'interno della finanza tradizionale mentre sfrutta i vantaggi della tecnologia blockchain. Chi è il Creatore di SPERO,$$s$? L'identità del creatore di SPERO,$$s$ rimane piuttosto oscura, poiché ci sono risorse pubblicamente disponibili limitate che forniscono informazioni dettagliate sul suo fondatore o fondatori. Questa mancanza di trasparenza può derivare dall'impegno del progetto per la decentralizzazione—un ethos che molti progetti web3 condividono, dando priorità ai contributi collettivi rispetto al riconoscimento individuale. Centrando le discussioni attorno alla comunità e ai suoi obiettivi collettivi, SPERO,$$s$ incarna l'essenza dell'empowerment senza mettere in evidenza individui specifici. Pertanto, comprendere l'etica e la missione di SPERO rimane più importante che identificare un creatore singolo. Chi sono gli Investitori di SPERO,$$s$? SPERO,$$s$ è supportato da una varietà di investitori che vanno dai capitalisti di rischio agli investitori angelici dedicati a promuovere l'innovazione nel settore crypto. Il focus di questi investitori generalmente si allinea con la missione di SPERO—dando priorità a progetti che promettono avanzamenti tecnologici sociali, inclusività finanziaria e governance decentralizzata. Queste fondazioni di investitori sono tipicamente interessate a progetti che non solo offrono prodotti innovativi, ma contribuiscono anche positivamente alla comunità blockchain e ai suoi ecosistemi. Il supporto di questi investitori rafforza SPERO,$$s$ come un concorrente degno di nota nel dominio in rapida evoluzione dei progetti crypto. Come Funziona SPERO,$$s$? SPERO,$$s$ impiega un framework multifunzionale che lo distingue dai progetti di criptovaluta convenzionali. Ecco alcune delle caratteristiche chiave che sottolineano la sua unicità e innovazione: Governance Decentralizzata: SPERO,$$s$ integra modelli di governance decentralizzati, responsabilizzando gli utenti a partecipare attivamente ai processi decisionali riguardanti il futuro del progetto. Questo approccio favorisce un senso di proprietà e responsabilità tra i membri della comunità. Utilità del Token: SPERO,$$s$ utilizza il proprio token di criptovaluta, progettato per servire varie funzioni all'interno dell'ecosistema. Questi token abilitano transazioni, premi e la facilitazione dei servizi offerti sulla piattaforma, migliorando l'impegno e l'utilità complessivi. Architettura Stratificata: L'architettura tecnica di SPERO,$$s$ supporta la modularità e la scalabilità, consentendo un'integrazione fluida di funzionalità e applicazioni aggiuntive man mano che il progetto evolve. Questa adattabilità è fondamentale per mantenere la rilevanza nel panorama crypto in continua evoluzione. Coinvolgimento della Comunità: Il progetto enfatizza iniziative guidate dalla comunità, impiegando meccanismi che incentivano la collaborazione e il feedback. Nutrendo una comunità forte, SPERO,$$s$ può affrontare meglio le esigenze degli utenti e adattarsi alle tendenze di mercato. Focus sull'Inclusione: Offrendo basse commissioni di transazione e interfacce user-friendly, SPERO,$$s$ mira ad attrarre una base utenti diversificata, inclusi individui che potrebbero non aver precedentemente interagito nello spazio crypto. Questo impegno per l'inclusione si allinea con la sua missione generale di empowerment attraverso l'accessibilità. Cronologia di SPERO,$$s$ Comprendere la storia di un progetto fornisce preziose intuizioni sulla sua traiettoria di sviluppo e sui traguardi. Di seguito è riportata una cronologia suggerita che mappa eventi significativi nell'evoluzione di SPERO,$$s$: Fase di Concettualizzazione e Ideazione: Le idee iniziali che formano la base di SPERO,$$s$ sono state concepite, allineandosi strettamente con i principi di decentralizzazione e focus sulla comunità all'interno dell'industria blockchain. Lancio del Whitepaper del Progetto: Dopo la fase concettuale, è stato rilasciato un whitepaper completo che dettaglia la visione, gli obiettivi e l'infrastruttura tecnologica di SPERO,$$s$ per suscitare interesse e feedback dalla comunità. Costruzione della Comunità e Prime Interazioni: Sono stati effettuati sforzi attivi di outreach per costruire una comunità di early adopters e potenziali investitori, facilitando discussioni attorno agli obiettivi del progetto e ottenendo supporto. Evento di Generazione del Token: SPERO,$$s$ ha condotto un evento di generazione del token (TGE) per distribuire i propri token nativi ai primi sostenitori e stabilire una liquidità iniziale all'interno dell'ecosistema. Lancio della Prima dApp: La prima applicazione decentralizzata (dApp) associata a SPERO,$$s$ è stata attivata, consentendo agli utenti di interagire con le funzionalità principali della piattaforma. Sviluppo Continuo e Partnership: Aggiornamenti e miglioramenti continui alle offerte del progetto, inclusi partnership strategiche con altri attori nello spazio blockchain, hanno plasmato SPERO,$$s$ in un concorrente competitivo e in evoluzione nel mercato crypto. Conclusione SPERO,$$s$ rappresenta una testimonianza del potenziale del web3 e delle criptovalute di rivoluzionare i sistemi finanziari e responsabilizzare gli individui. Con un impegno per la governance decentralizzata, il coinvolgimento della comunità e funzionalità progettate in modo innovativo, apre la strada verso un panorama finanziario più inclusivo. Come per qualsiasi investimento nello spazio crypto in rapida evoluzione, si incoraggiano potenziali investitori e utenti a ricercare approfonditamente e a impegnarsi in modo riflessivo con gli sviluppi in corso all'interno di SPERO,$$s$. Il progetto mostra lo spirito innovativo dell'industria crypto, invitando a ulteriori esplorazioni delle sue innumerevoli possibilità. Mentre il percorso di SPERO,$$s$ è ancora in fase di sviluppo, i suoi principi fondamentali potrebbero effettivamente influenzare il futuro di come interagiamo con la tecnologia, la finanza e tra di noi in ecosistemi digitali interconnessi.

75 Totale visualizzazioniPubblicato il 2024.12.17Aggiornato il 2024.12.17

Cosa è $S$

Cosa è AGENT S

Agent S: Il Futuro dell'Interazione Autonoma in Web3 Introduzione Nel panorama in continua evoluzione di Web3 e criptovalute, le innovazioni stanno costantemente ridefinendo il modo in cui gli individui interagiscono con le piattaforme digitali. Uno di questi progetti pionieristici, Agent S, promette di rivoluzionare l'interazione uomo-computer attraverso il suo framework agentico aperto. Aprendo la strada a interazioni autonome, Agent S mira a semplificare compiti complessi, offrendo applicazioni trasformative nell'intelligenza artificiale (AI). Questa esplorazione dettagliata approfondirà le complessità del progetto, le sue caratteristiche uniche e le implicazioni per il dominio delle criptovalute. Cos'è Agent S? Agent S si presenta come un innovativo framework agentico aperto, progettato specificamente per affrontare tre sfide fondamentali nell'automazione dei compiti informatici: Acquisizione di Conoscenze Specifiche del Dominio: Il framework apprende in modo intelligente da varie fonti di conoscenza esterne ed esperienze interne. Questo approccio duale gli consente di costruire un ricco repository di conoscenze specifiche del dominio, migliorando le sue prestazioni nell'esecuzione dei compiti. Pianificazione su Lungo Orizzonte di Compiti: Agent S impiega una pianificazione gerarchica potenziata dall'esperienza, un approccio strategico che facilita la suddivisione e l'esecuzione efficiente di compiti complessi. Questa caratteristica migliora significativamente la sua capacità di gestire più sottocompiti in modo efficiente ed efficace. Gestione di Interfacce Dinamiche e Non Uniformi: Il progetto introduce l'Interfaccia Agente-Computer (ACI), una soluzione innovativa che migliora l'interazione tra agenti e utenti. Utilizzando Modelli Linguistici Multimodali di Grandi Dimensioni (MLLM), Agent S può navigare e manipolare senza sforzo diverse interfacce grafiche utente. Attraverso queste caratteristiche pionieristiche, Agent S fornisce un framework robusto che affronta le complessità coinvolte nell'automazione dell'interazione umana con le macchine, preparando il terreno per innumerevoli applicazioni nell'AI e oltre. Chi è il Creatore di Agent S? Sebbene il concetto di Agent S sia fondamentalmente innovativo, informazioni specifiche sul suo creatore rimangono elusive. Il creatore è attualmente sconosciuto, il che evidenzia sia la fase embrionale del progetto sia la scelta strategica di mantenere i membri fondatori sotto anonimato. Indipendentemente dall'anonimato, l'attenzione rimane sulle capacità e sul potenziale del framework. Chi sono gli Investitori di Agent S? Poiché Agent S è relativamente nuovo nell'ecosistema crittografico, informazioni dettagliate riguardanti i suoi investitori e sostenitori finanziari non sono documentate esplicitamente. La mancanza di approfondimenti pubblicamente disponibili sulle fondazioni di investimento o sulle organizzazioni che supportano il progetto solleva interrogativi sulla sua struttura di finanziamento e sulla roadmap di sviluppo. Comprendere il supporto è cruciale per valutare la sostenibilità del progetto e il suo potenziale impatto sul mercato. Come Funziona Agent S? Al centro di Agent S si trova una tecnologia all'avanguardia che gli consente di funzionare efficacemente in contesti diversi. Il suo modello operativo è costruito attorno a diverse caratteristiche chiave: Interazione Uomo-Computer Simile a Quella Umana: Il framework offre una pianificazione AI avanzata, cercando di rendere le interazioni con i computer più intuitive. Mimando il comportamento umano nell'esecuzione dei compiti, promette di elevare le esperienze degli utenti. Memoria Narrativa: Utilizzata per sfruttare esperienze di alto livello, Agent S utilizza la memoria narrativa per tenere traccia delle storie dei compiti, migliorando così i suoi processi decisionali. Memoria Episodica: Questa caratteristica fornisce agli utenti una guida passo-passo, consentendo al framework di offrire supporto contestuale mentre i compiti si sviluppano. Supporto per OpenACI: Con la capacità di funzionare localmente, Agent S consente agli utenti di mantenere il controllo sulle proprie interazioni e flussi di lavoro, allineandosi con l'etica decentralizzata di Web3. Facile Integrazione con API Esterne: La sua versatilità e compatibilità con varie piattaforme AI garantiscono che Agent S possa adattarsi senza problemi agli ecosistemi tecnologici esistenti, rendendolo una scelta attraente per sviluppatori e organizzazioni. Queste funzionalità contribuiscono collettivamente alla posizione unica di Agent S all'interno dello spazio crittografico, poiché automatizza compiti complessi e multi-fase con un intervento umano minimo. Man mano che il progetto evolve, le sue potenziali applicazioni in Web3 potrebbero ridefinire il modo in cui si svolgono le interazioni digitali. Cronologia di Agent S Lo sviluppo e le tappe di Agent S possono essere riassunti in una cronologia che evidenzia i suoi eventi significativi: 27 Settembre 2024: Il concetto di Agent S è stato lanciato in un documento di ricerca completo intitolato “Un Framework Agentico Aperto che Usa i Computer Come un Umano”, mostrando le basi per il progetto. 10 Ottobre 2024: Il documento di ricerca è stato reso pubblicamente disponibile su arXiv, offrendo un'esplorazione approfondita del framework e della sua valutazione delle prestazioni basata sul benchmark OSWorld. 12 Ottobre 2024: È stata rilasciata una presentazione video, fornendo un'idea visiva delle capacità e delle caratteristiche di Agent S, coinvolgendo ulteriormente potenziali utenti e investitori. Questi indicatori nella cronologia non solo illustrano i progressi di Agent S, ma indicano anche il suo impegno per la trasparenza e il coinvolgimento della comunità. Punti Chiave su Agent S Man mano che il framework Agent S continua a evolversi, diversi attributi chiave si distinguono, sottolineando la sua natura innovativa e il potenziale: Framework Innovativo: Progettato per fornire un uso intuitivo dei computer simile all'interazione umana, Agent S porta un approccio nuovo all'automazione dei compiti. Interazione Autonoma: La capacità di interagire autonomamente con i computer attraverso GUI segna un passo avanti verso soluzioni informatiche più intelligenti ed efficienti. Automazione di Compiti Complessi: Con la sua metodologia robusta, può automatizzare compiti complessi e multi-fase, rendendo i processi più veloci e meno soggetti a errori. Miglioramento Continuo: I meccanismi di apprendimento consentono ad Agent S di migliorare dalle esperienze passate, migliorando continuamente le sue prestazioni e la sua efficacia. Versatilità: La sua adattabilità attraverso diversi ambienti operativi come OSWorld e WindowsAgentArena garantisce che possa servire un'ampia gamma di applicazioni. Man mano che Agent S si posiziona nel panorama di Web3 e delle criptovalute, il suo potenziale per migliorare le capacità di interazione e automatizzare i processi segna un significativo avanzamento nelle tecnologie AI. Attraverso il suo framework innovativo, Agent S esemplifica il futuro delle interazioni digitali, promettendo un'esperienza più fluida ed efficiente per gli utenti in vari settori. Conclusione Agent S rappresenta un audace passo avanti nell'unione tra AI e Web3, con la capacità di ridefinire il modo in cui interagiamo con la tecnologia. Sebbene sia ancora nelle sue fasi iniziali, le possibilità per la sua applicazione sono vaste e coinvolgenti. Attraverso il suo framework completo che affronta sfide critiche, Agent S mira a portare le interazioni autonome al centro dell'esperienza digitale. Man mano che ci addentriamo nei regni delle criptovalute e della decentralizzazione, progetti come Agent S giocheranno senza dubbio un ruolo cruciale nel plasmare il futuro della tecnologia e della collaborazione uomo-computer.

397 Totale visualizzazioniPubblicato il 2025.01.14Aggiornato il 2025.01.14

Cosa è AGENT S

Come comprare S

Benvenuto in HTX.com! Abbiamo reso l'acquisto di Sonic (S) semplice e conveniente. Segui la nostra guida passo passo per intraprendere il tuo viaggio nel mondo delle criptovalute.Step 1: Crea il tuo Account HTXUsa la tua email o numero di telefono per registrarti il tuo account gratuito su HTX. Vivi un'esperienza facile e sblocca tutte le funzionalità,Crea il mio accountStep 2: Vai in Acquista crypto e seleziona il tuo metodo di pagamentoCarta di credito/debito: utilizza la tua Visa o Mastercard per acquistare immediatamente SonicS.Bilancio: Usa i fondi dal bilancio del tuo account HTX per fare trading senza problemi.Terze parti: abbiamo aggiunto metodi di pagamento molto utilizzati come Google Pay e Apple Pay per maggiore comodità.P2P: Fai trading direttamente con altri utenti HTX.Over-the-Counter (OTC): Offriamo servizi su misura e tassi di cambio competitivi per i trader.Step 3: Conserva Sonic (S)Dopo aver acquistato Sonic (S), conserva nel tuo account HTX. In alternativa, puoi inviare tramite trasferimento blockchain o scambiare per altre criptovalute.Step 4: Scambia Sonic (S)Scambia facilmente Sonic (S) nel mercato spot di HTX. Accedi al tuo account, seleziona la tua coppia di trading, esegui le tue operazioni e monitora in tempo reale. Offriamo un'esperienza user-friendly sia per chi ha appena iniziato che per i trader più esperti.

782 Totale visualizzazioniPubblicato il 2025.01.15Aggiornato il 2025.03.21

Come comprare S

Discussioni

Benvenuto nella Community HTX. Qui puoi rimanere informato sugli ultimi sviluppi della piattaforma e accedere ad approfondimenti esperti sul mercato. Le opinioni degli utenti sul prezzo di S S sono presentate come di seguito.

活动图片