Illustrating the Capital Market After DeepSeek V4's Launch: Zhipu and MiniMax Plunge, NVIDIA Panics

marsbitPubblicato 2026-04-24Pubblicato ultima volta 2026-04-24

Introduzione

DeepSeek V4, a 1T parameter MoE model with a 285B Flash version, has been fully open-sourced under Apache 2.0, triggering significant reactions across capital markets. Chinese AI chipmakers like Cambricon and Hygon saw major stock gains, with Cambricon rising 60% monthly. In contrast, Hong Kong-listed AI firms Zhipu and MiniMax dropped over 7%, facing heavy short-selling. NVIDIA’s shares dipped, with analysts noting a "decoupling" of Chinese and North American AI inference demand. The launch intensified competition in the AI model space, following 11 major releases in 30 days, including GPT-5.5 and Llama 4. Unlike others, V4’s permissive licensing and full open-source release challenged closed-source models on performance, cost, and accessibility. Critically, V4 announced Day-0 support for domestic chips like Huawei’s Ascend 950PR and Cambricon’s Siyuan 590, offering better cost-performance than NVIDIA counterparts. This shift reduces reliance on CUDA, aligning with NVIDIA CEO’s earlier concerns about Chinese AI chips threatening its dominance. The move signals a tangible step in China’s AI supply chain independence, redirecting compute demand to local manufacturers like Hua Hong Semiconductor.

DeepSeek V4 is finally live. This is a moment that has been awaited for nearly five months. The main model with 1T MoE parameters + the 285B parameter Flash version, followed by the full 1.6T Pro version, all open-sourced on GitHub under the Apache 2.0 license, with weights and deployment code released simultaneously.

As soon as the model was released, the capital market responded in three distinct yet interconnected ways.

Different Reactions in the Capital Market

On the A-share computing power chain side, there was an almost across-the-board surge. Cambricon saw 11 consecutive days of gains, rising 3.7% in a single day, with a cumulative increase of over 60% within the month. Hygon Information hit a 10% daily limit during trading, closing up 8.4%. SMIC's A-shares rose 4.91%, while its Hong Kong shares climbed 8.81%. Huahong's Hong Kong shares surged as much as 18% before closing up 12%. The Cathay Pacific ETF for科创芯片 (Science and Technology Innovation Chip) attracted 2.4 billion yuan in a single day, reaching a historic high in scale.

On the Hong Kong stock market, large model companies showed a different color. Zhipu (02513.HK) fell 8.07%, with a short-selling ratio of 9.9%. MiniMax (00100.HK) dropped 7.40%, with its short-selling ratio soaring to 22.87%. The latter represents the highest single-day short-selling data for the Hong Kong AI sector in the past three months. Both companies are representatives of the Hong Kong AI listing wave expected in the second half of 2025, with their IPO prospectuses highlighting the same core competency: "self-developed foundational large models."

The reaction on the other side of the Pacific was equally specific. NVIDIA opened down 1.8% last night, falling as much as 2.6% during the session, and closed flat for the day. Bloomberg's market commentary compared this consolidation to the V3 "DeepSeek moment" on January 27. The difference is that the January episode was a panic sell-off, wiping out $600 billion in market value in a single day. This time, it was more like a repricing—milder in scale but clear in direction. A new phrase appeared in buy-side research notes: "China's AI inference demand is beginning to decouple from North America's AI inference demand."

Layering these three market reactions together, we get the first verdict written by the market within 24 hours of V4's launch. After open source prevailed, money began to reposition. What can be priced is no longer the model itself, but which card the model runs on and which supply chain it is embedded in.

11 New Models in 30 Days: V4 Adds Fuel to the Open-Source Camp

The timing of V4's release is part of the reason why the reaction was amplified.

Zooming out to the past 30 days: between March 26 and April 24, at least 11 significantly influential large models were released or received major updates, covering almost all major players. The list includes Anthropic Opus 4.6, Google Gemini 3.1 Pro, OpenAI GPT-5.5, Mistral Large 3, Meta Llama 4, Moonlight's Kimi K2.6, Alibaba Qwen3-Next, ByteDance Doubao 2.5 Pro, Tencent Hunyuan 3.0, Kimi K2.6 Plus, and finally, DeepSeek V4, released in the early hours of April 23.

On average, a new model was released every 2.7 days. This is a pace even fund managers can't keep up with in reading release notes. But looking at the K-lines of AI assets in China and Hong Kong over these 30 days, only one name left a lasting mark on the market. GPT-5.5 on April 8 drove NVIDIA up 4.2% in a single day, peaking that day. Then, DeepSeek V4 on April 23-24 drove consecutive jumps in the China-Hong Kong computing power chain.

The difference does not lie in the model capabilities themselves. The gap between these 11 models on the LMArena leaderboard is mostly within 50 points, falling within a narrow band of the "same tier." The difference lies in the叠加 (superposition) of two things.

The first is open source. Among the first 10 models, only Llama 4 was open source, but Llama 4's weight协议 (license) came with a long list of commercial use restrictions, receiving冷淡 (lukewarm)评价 (evaluations) from the欧美 (European and American) developer community, and it fell out of the top ten on OpenRouter on the third day. V4's license is Apache 2.0, with no门槛 (barriers) for weights, no restrictions on commercial use, and推理代码 (inference code) released simultaneously. This is the first flagship open-source model in the past six months to simultaneously pressure the closed-source camp on three dimensions: performance, price, and openness.

The second is timing. Against the backdrop of the closed-source camp continuously releasing major updates, the open-source narrative is being repeatedly squeezed. Opus 4.6 pushed the SWE-Bench for code tasks to a new high, and GPT-5.5 set a下沉锚点 (downward anchor point) of $1.25 per million tokens. The debate over whether open source can catch up with closed source has been ongoing in Silicon Valley for two years. V4, with an open-source flagship whose estimated MAU surged to 90 million, pressed the pause button on this debate.

As one large domestic fund manager stated in a roadshow, "Before V4, we applied a discount to the valuation of open-source large models. After V4, this discount is starting to be收 (collected) in reverse."

DeepSeek Replaced the Pricing Table of the Computing Power Supply Chain

V4's release notes contained a line that had never appeared in any official document of a Chinese large model before: "Day 0 full-stack adaptation for Cambricon Siyuan 590 and Huawei Ascend 950PR, with deployment code open-sourced simultaneously." The weight of this line becomes clear only when three暗线 (undercurrents) that have been unfolding in parallel over the past 12 months are connected. These three undercurrents belong to hardware, software, and Silicon Valley's reaction, respectively.

The first undercurrent is on the chip side. Huawei's Ascend 950PR entered mass production in December 2025, with FP4算力 (computing power) of 1.56 PFLOPS and HBM capacity of 112GB, marking the first time domestic AI chips have matched NVIDIA's B-series on hard metrics. In推理任务 (inference tasks) for a 1T parameter MoE model like V4, single-card吞吐 (throughput) increased by 2.87 times compared to the H20. The配套 (supporting) CANN 8.0 software stack optimizes the LLM inference framework down to the算子级别 (operator level). DeepSeek's公开 (public) Benchmark shows that V4's end-to-end inference latency on an Ascend超节点 (super node) (8-card 950PR) is 35% lower than on an equivalent-scale H100 cluster. Cambricon Siyuan 590's data is even more aggressive, with single-chip FP8算力 (computing power)对标 (matching) the H100, at less than half the price.

The second undercurrent is on the software side. The vLLM mainline merged the Cambricon MLU backend PR on April 22, marking the first time an open-source inference framework natively supports non-NVIDIA domestic GPUs. Hygon Information's DCU takes another path through the ROCm ecosystem but can fully run V4's MoE routing layer. This means that deploying V4 is no longer "only runnable on a specific domestic card" but "choosable among multiple domestic cards." The ecosystem's dependence on a single supplier is broken, which is a critical拐点 (inflection point) for production.

The third undercurrent comes from Silicon Valley. On April 15, Jensen Huang's (NVIDIA CEO) was pressed by an analyst at TSMC's earnings call about the progress of China's domestic computing power. His原话 (original words) were冷峻而具体 (chillingly specific): "If they can really make LLMs摆脱 (break free from) CUDA, it would be a disaster for us." Nine days later, DeepSeek provided the answer with a single Day 0 announcement.

The phrase "国产替代" (domestic substitution) has been overused to the point of losing meaning over the past three years. But after the morning of April 24, this matter gained specific data that can be priced by the capital market for the first time. Single-card throughput, end-to-end inference latency, inference cost, and commercially deployable code quietly pushed this long war of words past the threshold into production.

The logic behind Cambricon's 11 consecutive阳线 (rising days) is hidden here. It is no longer a "domestic GPU concept stock" but a "DeepSeek V4推理基础设施供应商" (inference infrastructure supplier). The same logic explains Huahong's 12% surge in Hong Kong shares; it代工 (manufactures) the 7nm equivalent process for the 950PR. Every V4 token running on a domestic Ascend card means that capacity originally destined for NVIDIA and TSMC is partially截留 (retained) in the Pearl River Delta.

And the next step has long been laid out. In Huawei's roadmap, the 950DT (training version) is scheduled for delivery in Q4 2026, targeting "full-stack training of V5 or equivalent models on a 10,000-card cluster." If this path can be successfully traversed, CUDA's moat in the training side of China's large models will be downgraded from "necessary" to "optional."

Domande pertinenti

QWhat were the immediate market reactions to the release of DeepSeek V4?

AThe A-share computing power chain stocks surged, with Cambricon rising 60% monthly, Haiguang Information hitting a 10% limit up, and SMIC and Huahong also seeing significant gains. In contrast,港股大模型 companies like Zhipu and MiniMax saw sharp declines of over 7%, with high short-selling ratios. NVIDIA opened down 1.8% but closed flat, indicating a recalibration rather than panic selling.

QHow does DeepSeek V4's open-source approach differ from other major models released in the same period?

ADeepSeek V4 is released under the Apache 2.0 license, offering unrestricted commercial use, full weight access, and synchronized inference code. This contrasts with models like Llama 4, which had restrictive commercial clauses, and other closed-source models from Anthropic, Google, and OpenAI, making V4 the first flagship open-source model to pressure the closed-source camp on performance, price, and openness simultaneously.

QWhat specific hardware adaptations did DeepSeek V4 announce, and why are they significant?

ADeepSeek V4 announced Day 0 full-stack adaptation for Cambricon's Siyuan 590 and Huawei's Ascend 950PR, with deployment code open-sourced. This is significant as it marks the first time a Chinese LLM can natively run on multiple domestic GPUs, breaking dependency on single suppliers like NVIDIA, and providing concrete data on performance gains, such as higher throughput and lower latency compared to H100 clusters.

QHow did the release timing of DeepSeek V4 amplify its market impact?

AV4 was released amidst a crowded period of 11 major model releases or updates in 30 days, including from OpenAI, Google, and Anthropic. However, only V4 and GPT-5.5 had sustained market effects. V4's impact was magnified because it provided a high-performance, fully open-source alternative just as the closed-source narrative was dominating, leading to a reevaluation of open-source model valuations.

QWhat long-term implications does DeepSeek V4's success have for NVIDIA and the global AI supply chain?

AV4's success signals a potential decoupling of Chinese AI inference demand from North American supply, as it enables production-grade deployment on domestic hardware like Huawei Ascend and Cambricon chips. This could reduce reliance on NVIDIA's CUDA ecosystem and divert manufacturing capacity from TSMC to local foundries like Huahong, threatening NVIDIA's market dominance in China and prompting a strategic shift in global AI supply chains.

Letture associate

Trading

Spot
Futures

Articoli Popolari

Cosa è $S$

Comprendere SPERO: Una Panoramica Completa Introduzione a SPERO Mentre il panorama dell'innovazione continua a evolversi, l'emergere delle tecnologie web3 e dei progetti di criptovaluta gioca un ruolo fondamentale nel plasmare il futuro digitale. Un progetto che ha attirato l'attenzione in questo campo dinamico è SPERO, denotato come SPERO,$$s$. Questo articolo mira a raccogliere e presentare informazioni dettagliate su SPERO, per aiutare gli appassionati e gli investitori a comprendere le sue basi, obiettivi e innovazioni nei domini web3 e crypto. Che cos'è SPERO,$$s$? SPERO,$$s$ è un progetto unico all'interno dello spazio crypto che cerca di sfruttare i principi della decentralizzazione e della tecnologia blockchain per creare un ecosistema che promuove l'impegno, l'utilità e l'inclusione finanziaria. Il progetto è progettato per facilitare interazioni peer-to-peer in modi nuovi, fornendo agli utenti soluzioni e servizi finanziari innovativi. Al suo interno, SPERO,$$s$ mira a responsabilizzare gli individui fornendo strumenti e piattaforme che migliorano l'esperienza dell'utente nello spazio delle criptovalute. Questo include la possibilità di metodi di transazione più flessibili, la promozione di iniziative guidate dalla comunità e la creazione di percorsi per opportunità finanziarie attraverso applicazioni decentralizzate (dApps). La visione sottostante di SPERO,$$s$ ruota attorno all'inclusività, cercando di colmare le lacune all'interno della finanza tradizionale mentre sfrutta i vantaggi della tecnologia blockchain. Chi è il Creatore di SPERO,$$s$? L'identità del creatore di SPERO,$$s$ rimane piuttosto oscura, poiché ci sono risorse pubblicamente disponibili limitate che forniscono informazioni dettagliate sul suo fondatore o fondatori. Questa mancanza di trasparenza può derivare dall'impegno del progetto per la decentralizzazione—un ethos che molti progetti web3 condividono, dando priorità ai contributi collettivi rispetto al riconoscimento individuale. Centrando le discussioni attorno alla comunità e ai suoi obiettivi collettivi, SPERO,$$s$ incarna l'essenza dell'empowerment senza mettere in evidenza individui specifici. Pertanto, comprendere l'etica e la missione di SPERO rimane più importante che identificare un creatore singolo. Chi sono gli Investitori di SPERO,$$s$? SPERO,$$s$ è supportato da una varietà di investitori che vanno dai capitalisti di rischio agli investitori angelici dedicati a promuovere l'innovazione nel settore crypto. Il focus di questi investitori generalmente si allinea con la missione di SPERO—dando priorità a progetti che promettono avanzamenti tecnologici sociali, inclusività finanziaria e governance decentralizzata. Queste fondazioni di investitori sono tipicamente interessate a progetti che non solo offrono prodotti innovativi, ma contribuiscono anche positivamente alla comunità blockchain e ai suoi ecosistemi. Il supporto di questi investitori rafforza SPERO,$$s$ come un concorrente degno di nota nel dominio in rapida evoluzione dei progetti crypto. Come Funziona SPERO,$$s$? SPERO,$$s$ impiega un framework multifunzionale che lo distingue dai progetti di criptovaluta convenzionali. Ecco alcune delle caratteristiche chiave che sottolineano la sua unicità e innovazione: Governance Decentralizzata: SPERO,$$s$ integra modelli di governance decentralizzati, responsabilizzando gli utenti a partecipare attivamente ai processi decisionali riguardanti il futuro del progetto. Questo approccio favorisce un senso di proprietà e responsabilità tra i membri della comunità. Utilità del Token: SPERO,$$s$ utilizza il proprio token di criptovaluta, progettato per servire varie funzioni all'interno dell'ecosistema. Questi token abilitano transazioni, premi e la facilitazione dei servizi offerti sulla piattaforma, migliorando l'impegno e l'utilità complessivi. Architettura Stratificata: L'architettura tecnica di SPERO,$$s$ supporta la modularità e la scalabilità, consentendo un'integrazione fluida di funzionalità e applicazioni aggiuntive man mano che il progetto evolve. Questa adattabilità è fondamentale per mantenere la rilevanza nel panorama crypto in continua evoluzione. Coinvolgimento della Comunità: Il progetto enfatizza iniziative guidate dalla comunità, impiegando meccanismi che incentivano la collaborazione e il feedback. Nutrendo una comunità forte, SPERO,$$s$ può affrontare meglio le esigenze degli utenti e adattarsi alle tendenze di mercato. Focus sull'Inclusione: Offrendo basse commissioni di transazione e interfacce user-friendly, SPERO,$$s$ mira ad attrarre una base utenti diversificata, inclusi individui che potrebbero non aver precedentemente interagito nello spazio crypto. Questo impegno per l'inclusione si allinea con la sua missione generale di empowerment attraverso l'accessibilità. Cronologia di SPERO,$$s$ Comprendere la storia di un progetto fornisce preziose intuizioni sulla sua traiettoria di sviluppo e sui traguardi. Di seguito è riportata una cronologia suggerita che mappa eventi significativi nell'evoluzione di SPERO,$$s$: Fase di Concettualizzazione e Ideazione: Le idee iniziali che formano la base di SPERO,$$s$ sono state concepite, allineandosi strettamente con i principi di decentralizzazione e focus sulla comunità all'interno dell'industria blockchain. Lancio del Whitepaper del Progetto: Dopo la fase concettuale, è stato rilasciato un whitepaper completo che dettaglia la visione, gli obiettivi e l'infrastruttura tecnologica di SPERO,$$s$ per suscitare interesse e feedback dalla comunità. Costruzione della Comunità e Prime Interazioni: Sono stati effettuati sforzi attivi di outreach per costruire una comunità di early adopters e potenziali investitori, facilitando discussioni attorno agli obiettivi del progetto e ottenendo supporto. Evento di Generazione del Token: SPERO,$$s$ ha condotto un evento di generazione del token (TGE) per distribuire i propri token nativi ai primi sostenitori e stabilire una liquidità iniziale all'interno dell'ecosistema. Lancio della Prima dApp: La prima applicazione decentralizzata (dApp) associata a SPERO,$$s$ è stata attivata, consentendo agli utenti di interagire con le funzionalità principali della piattaforma. Sviluppo Continuo e Partnership: Aggiornamenti e miglioramenti continui alle offerte del progetto, inclusi partnership strategiche con altri attori nello spazio blockchain, hanno plasmato SPERO,$$s$ in un concorrente competitivo e in evoluzione nel mercato crypto. Conclusione SPERO,$$s$ rappresenta una testimonianza del potenziale del web3 e delle criptovalute di rivoluzionare i sistemi finanziari e responsabilizzare gli individui. Con un impegno per la governance decentralizzata, il coinvolgimento della comunità e funzionalità progettate in modo innovativo, apre la strada verso un panorama finanziario più inclusivo. Come per qualsiasi investimento nello spazio crypto in rapida evoluzione, si incoraggiano potenziali investitori e utenti a ricercare approfonditamente e a impegnarsi in modo riflessivo con gli sviluppi in corso all'interno di SPERO,$$s$. Il progetto mostra lo spirito innovativo dell'industria crypto, invitando a ulteriori esplorazioni delle sue innumerevoli possibilità. Mentre il percorso di SPERO,$$s$ è ancora in fase di sviluppo, i suoi principi fondamentali potrebbero effettivamente influenzare il futuro di come interagiamo con la tecnologia, la finanza e tra di noi in ecosistemi digitali interconnessi.

75 Totale visualizzazioniPubblicato il 2024.12.17Aggiornato il 2024.12.17

Cosa è $S$

Cosa è AGENT S

Agent S: Il Futuro dell'Interazione Autonoma in Web3 Introduzione Nel panorama in continua evoluzione di Web3 e criptovalute, le innovazioni stanno costantemente ridefinendo il modo in cui gli individui interagiscono con le piattaforme digitali. Uno di questi progetti pionieristici, Agent S, promette di rivoluzionare l'interazione uomo-computer attraverso il suo framework agentico aperto. Aprendo la strada a interazioni autonome, Agent S mira a semplificare compiti complessi, offrendo applicazioni trasformative nell'intelligenza artificiale (AI). Questa esplorazione dettagliata approfondirà le complessità del progetto, le sue caratteristiche uniche e le implicazioni per il dominio delle criptovalute. Cos'è Agent S? Agent S si presenta come un innovativo framework agentico aperto, progettato specificamente per affrontare tre sfide fondamentali nell'automazione dei compiti informatici: Acquisizione di Conoscenze Specifiche del Dominio: Il framework apprende in modo intelligente da varie fonti di conoscenza esterne ed esperienze interne. Questo approccio duale gli consente di costruire un ricco repository di conoscenze specifiche del dominio, migliorando le sue prestazioni nell'esecuzione dei compiti. Pianificazione su Lungo Orizzonte di Compiti: Agent S impiega una pianificazione gerarchica potenziata dall'esperienza, un approccio strategico che facilita la suddivisione e l'esecuzione efficiente di compiti complessi. Questa caratteristica migliora significativamente la sua capacità di gestire più sottocompiti in modo efficiente ed efficace. Gestione di Interfacce Dinamiche e Non Uniformi: Il progetto introduce l'Interfaccia Agente-Computer (ACI), una soluzione innovativa che migliora l'interazione tra agenti e utenti. Utilizzando Modelli Linguistici Multimodali di Grandi Dimensioni (MLLM), Agent S può navigare e manipolare senza sforzo diverse interfacce grafiche utente. Attraverso queste caratteristiche pionieristiche, Agent S fornisce un framework robusto che affronta le complessità coinvolte nell'automazione dell'interazione umana con le macchine, preparando il terreno per innumerevoli applicazioni nell'AI e oltre. Chi è il Creatore di Agent S? Sebbene il concetto di Agent S sia fondamentalmente innovativo, informazioni specifiche sul suo creatore rimangono elusive. Il creatore è attualmente sconosciuto, il che evidenzia sia la fase embrionale del progetto sia la scelta strategica di mantenere i membri fondatori sotto anonimato. Indipendentemente dall'anonimato, l'attenzione rimane sulle capacità e sul potenziale del framework. Chi sono gli Investitori di Agent S? Poiché Agent S è relativamente nuovo nell'ecosistema crittografico, informazioni dettagliate riguardanti i suoi investitori e sostenitori finanziari non sono documentate esplicitamente. La mancanza di approfondimenti pubblicamente disponibili sulle fondazioni di investimento o sulle organizzazioni che supportano il progetto solleva interrogativi sulla sua struttura di finanziamento e sulla roadmap di sviluppo. Comprendere il supporto è cruciale per valutare la sostenibilità del progetto e il suo potenziale impatto sul mercato. Come Funziona Agent S? Al centro di Agent S si trova una tecnologia all'avanguardia che gli consente di funzionare efficacemente in contesti diversi. Il suo modello operativo è costruito attorno a diverse caratteristiche chiave: Interazione Uomo-Computer Simile a Quella Umana: Il framework offre una pianificazione AI avanzata, cercando di rendere le interazioni con i computer più intuitive. Mimando il comportamento umano nell'esecuzione dei compiti, promette di elevare le esperienze degli utenti. Memoria Narrativa: Utilizzata per sfruttare esperienze di alto livello, Agent S utilizza la memoria narrativa per tenere traccia delle storie dei compiti, migliorando così i suoi processi decisionali. Memoria Episodica: Questa caratteristica fornisce agli utenti una guida passo-passo, consentendo al framework di offrire supporto contestuale mentre i compiti si sviluppano. Supporto per OpenACI: Con la capacità di funzionare localmente, Agent S consente agli utenti di mantenere il controllo sulle proprie interazioni e flussi di lavoro, allineandosi con l'etica decentralizzata di Web3. Facile Integrazione con API Esterne: La sua versatilità e compatibilità con varie piattaforme AI garantiscono che Agent S possa adattarsi senza problemi agli ecosistemi tecnologici esistenti, rendendolo una scelta attraente per sviluppatori e organizzazioni. Queste funzionalità contribuiscono collettivamente alla posizione unica di Agent S all'interno dello spazio crittografico, poiché automatizza compiti complessi e multi-fase con un intervento umano minimo. Man mano che il progetto evolve, le sue potenziali applicazioni in Web3 potrebbero ridefinire il modo in cui si svolgono le interazioni digitali. Cronologia di Agent S Lo sviluppo e le tappe di Agent S possono essere riassunti in una cronologia che evidenzia i suoi eventi significativi: 27 Settembre 2024: Il concetto di Agent S è stato lanciato in un documento di ricerca completo intitolato “Un Framework Agentico Aperto che Usa i Computer Come un Umano”, mostrando le basi per il progetto. 10 Ottobre 2024: Il documento di ricerca è stato reso pubblicamente disponibile su arXiv, offrendo un'esplorazione approfondita del framework e della sua valutazione delle prestazioni basata sul benchmark OSWorld. 12 Ottobre 2024: È stata rilasciata una presentazione video, fornendo un'idea visiva delle capacità e delle caratteristiche di Agent S, coinvolgendo ulteriormente potenziali utenti e investitori. Questi indicatori nella cronologia non solo illustrano i progressi di Agent S, ma indicano anche il suo impegno per la trasparenza e il coinvolgimento della comunità. Punti Chiave su Agent S Man mano che il framework Agent S continua a evolversi, diversi attributi chiave si distinguono, sottolineando la sua natura innovativa e il potenziale: Framework Innovativo: Progettato per fornire un uso intuitivo dei computer simile all'interazione umana, Agent S porta un approccio nuovo all'automazione dei compiti. Interazione Autonoma: La capacità di interagire autonomamente con i computer attraverso GUI segna un passo avanti verso soluzioni informatiche più intelligenti ed efficienti. Automazione di Compiti Complessi: Con la sua metodologia robusta, può automatizzare compiti complessi e multi-fase, rendendo i processi più veloci e meno soggetti a errori. Miglioramento Continuo: I meccanismi di apprendimento consentono ad Agent S di migliorare dalle esperienze passate, migliorando continuamente le sue prestazioni e la sua efficacia. Versatilità: La sua adattabilità attraverso diversi ambienti operativi come OSWorld e WindowsAgentArena garantisce che possa servire un'ampia gamma di applicazioni. Man mano che Agent S si posiziona nel panorama di Web3 e delle criptovalute, il suo potenziale per migliorare le capacità di interazione e automatizzare i processi segna un significativo avanzamento nelle tecnologie AI. Attraverso il suo framework innovativo, Agent S esemplifica il futuro delle interazioni digitali, promettendo un'esperienza più fluida ed efficiente per gli utenti in vari settori. Conclusione Agent S rappresenta un audace passo avanti nell'unione tra AI e Web3, con la capacità di ridefinire il modo in cui interagiamo con la tecnologia. Sebbene sia ancora nelle sue fasi iniziali, le possibilità per la sua applicazione sono vaste e coinvolgenti. Attraverso il suo framework completo che affronta sfide critiche, Agent S mira a portare le interazioni autonome al centro dell'esperienza digitale. Man mano che ci addentriamo nei regni delle criptovalute e della decentralizzazione, progetti come Agent S giocheranno senza dubbio un ruolo cruciale nel plasmare il futuro della tecnologia e della collaborazione uomo-computer.

420 Totale visualizzazioniPubblicato il 2025.01.14Aggiornato il 2025.01.14

Cosa è AGENT S

Come comprare S

Benvenuto in HTX.com! Abbiamo reso l'acquisto di Sonic (S) semplice e conveniente. Segui la nostra guida passo passo per intraprendere il tuo viaggio nel mondo delle criptovalute.Step 1: Crea il tuo Account HTXUsa la tua email o numero di telefono per registrarti il tuo account gratuito su HTX. Vivi un'esperienza facile e sblocca tutte le funzionalità,Crea il mio accountStep 2: Vai in Acquista crypto e seleziona il tuo metodo di pagamentoCarta di credito/debito: utilizza la tua Visa o Mastercard per acquistare immediatamente SonicS.Bilancio: Usa i fondi dal bilancio del tuo account HTX per fare trading senza problemi.Terze parti: abbiamo aggiunto metodi di pagamento molto utilizzati come Google Pay e Apple Pay per maggiore comodità.P2P: Fai trading direttamente con altri utenti HTX.Over-the-Counter (OTC): Offriamo servizi su misura e tassi di cambio competitivi per i trader.Step 3: Conserva Sonic (S)Dopo aver acquistato Sonic (S), conserva nel tuo account HTX. In alternativa, puoi inviare tramite trasferimento blockchain o scambiare per altre criptovalute.Step 4: Scambia Sonic (S)Scambia facilmente Sonic (S) nel mercato spot di HTX. Accedi al tuo account, seleziona la tua coppia di trading, esegui le tue operazioni e monitora in tempo reale. Offriamo un'esperienza user-friendly sia per chi ha appena iniziato che per i trader più esperti.

835 Totale visualizzazioniPubblicato il 2025.01.15Aggiornato il 2025.03.21

Come comprare S

Discussioni

Benvenuto nella Community HTX. Qui puoi rimanere informato sugli ultimi sviluppi della piattaforma e accedere ad approfondimenti esperti sul mercato. Le opinioni degli utenti sul prezzo di S S sono presentate come di seguito.

活动图片