Racing to Be the First Stock: The Substance, Capabilities, and Ambition of China's Largest Independent Model Company

marsbitPublicado em 2025-12-23Última atualização em 2025-12-23

Resumo

Zhipu AI, China's largest independent large language model (LLM) company by revenue, has passed its listing hearing on the Hong Kong Stock Exchange with a valuation of RMB 24.377 billion. Its IPO filing provides the first clear look at the financials of a major Chinese LLM player. From 2022 to 2024, Zhipu's revenue grew at a 130% CAGR, reaching RMB 310 million in 2024. Nearly 85% of its revenue comes from on-premise model deployments for enterprise clients, with the remainder from its MaaS (Model-as-a-Service) platform. Despite rapid revenue growth, the company reported significant adjusted net losses, driven overwhelmingly by R&D expenses which reached RMB 1.59 billion in H1 2025. A major portion of these costs is attributed to computing power, essential for training its flagship models. A key part of Zhipu's strategy is a "land and expand" approach: using strategic price cuts on its MaaS platform to attract a large user base (over 1.2 million enterprise developers) and then converting them into high-value on-premise clients. The release of its powerful open-source base model, GLM-4.5/4.6, which ranks among the top global models in several benchmarks, led to an exponential increase in API calls and token consumption. The company is betting that continued heavy R&D investment is necessary to stay at the forefront of the intensely competitive global AI market. Its leadership believes that possessing a superior base model is the ultimate product and the key to long-term grow...

24.377 billion yuan—this is the latest valuation confirmed by Zhipu in its prospectus made public on the 17th after passing the Hong Kong Stock Exchange's hearing. For the first time, people know exactly the valuation amount of a major Chinese large model company.

This is an opportune moment. Three years have passed since ChatGPT dropped a bombshell in the industry. After the frenzy of the "hundred-model battle," the remaining Chinese large model players, having proven that their innovation and technical capabilities are second to none, are now sprinting toward the capital markets.

During this critical transition period from "youth to adulthood," the market expects large model companies to demonstrate to everyone how "novel, tech-showcasing" model technology transitions into end-to-end落地 (landing/implementation) of "practical, adaptable" large models.

As the first company to successfully "come ashore" (go public/secure funding) from the hundred-model battle, Zhipu's answer is not entirely satisfactory. The scale of losses disclosed in the prospectus far exceeds revenue growth, and R&D expenses are still increasing significantly, showing no sign of stopping the "cash burn."

If this were a mature company, such a balance sheet would be quite unsatisfactory. But large models are special.

Zhipu is one of China's earliest independent large model companies, yet it is less than 6 years old. The reason the AI industry excites countless people is its revolutionary potential for the future, which is difficult to deduce directly from past history because change often happens suddenly and exponentially at a certain moment.

This is Zhipu's bet, or what could be called its vision. Before the arrival of the AGI future that many firmly believe in, Zhipu hopes to be as prepared as possible. This involves a series of complex trade-offs and also convincing the market to believe.

Making people believe—this is a gamble full of hope.

Core Data Summary

Zhipu's core commercial revenue primarily consists of localized deployment and cloud deployment. The former refers to providing large model privatization deployment for B-end customers, while the latter provides model API interfaces and token调用 (calling/invocation) services to users via its MaaS platform.

The prospectus shows that based on 2024 revenue, in the enterprise LLM field, Zhipu is already China's largest independent large model vendor and the second-largest large model vendor overall, surpassing Alibaba and SenseTime, with a market share of 6.6%.

From 2022 to 2024, Zhipu's revenues were RMB 60 million, RMB 120 million, and RMB 310 million, respectively, with a CAGR of 130%. Revenues for H1 2024 and H1 2025 were RMB 40 million and RMB 190 million, respectively, a year-on-year increase of over 300%;

Nearly 85% of Zhipu's revenue comes from the localized deployment business, primarily distributed across vertical industries such as internet technology, public services, telecommunications, traditional enterprises, consumer electronics, as well as retail, media, and consulting;

In H1 2025, Zhipu's overseas revenue proportion rapidly increased to nearly 12%, mainly from markets in Malaysia and Singapore. Under the "Belt and Road" strategy, Zhipu is helping overseas countries deploy sovereign large models, achieving a breakthrough of zero for the出海 (going global) of China's large model technology;

From 2022 to 2024 and H1 2025, Zhipu's gross margins were 54.6%, 64.6%, 56.3%, and 50.0%, respectively. For comparison, domestic software outsourcing company China Software typically has around 30%. Zhipu's gross margin for localized large model deployment business is not low;

Notably, the decline in gross margin is mainly due to price fluctuations in the MaaS platform business. Affected by market price wars, Zhipu increased price cuts to gain more customers and application scenarios;

The result of this is that in H1 2025, Zhipu had 95 and 3061 institutional customers for localized and cloud deployment respectively, while the full-year 2024 figures were 123 and 5457 institutional customers. The price reduction in the MaaS business not only increased the number of cloud institutional customers but also had a significant引流 (diversion/traffic acquisition) effect on the localized deployment business;

As of Q3 2025, the company's models have empowered over 80 million end-user devices and more than 45 million developers, and it has over 12,000 institutional customers, a significant increase from the 8,000 customers in H1 2025.

Additionally, in November 2025, Zhipu's daily token consumption reached 4.2 trillion, compared to 500 million in 2022. This is the result of Zhipu releasing its new generation GLM 4.5/4.6 open-source base models and a direct reflection of user volume and调用量 (call volume).

Revenue is More Important Than Anything, But Revenue Requires Patience

In its prospectus, Zhipu introduces a "vertical and horizontal strategy" narrative for the growth prospects of commercial revenue.

Vertically, price reductions and capacity expansion in the MaaS platform business have attracted a wide range of users and application scenarios. Introducing more users will divert traffic to the localized deployment business. This "MaaS traffic acquisition + localized monetization" model will initially build a cycle of customers and commerce.

Horizontally, similar to OpenAI and Anthropic, Zhipu's MaaS platform is highly flexible and scalable. Unlike the traditional impression of heavy-delivery customization projects, Zhipu points out that the enterprise MaaS projects, which constitute the vast majority of revenue, deliver more general model capabilities, thus enabling faster scaling of token call volumes.

The vertical customer cycle model and the horizontal general solution capability scaling reinforce Zhipu's label as China's independent model company with the largest revenue volume. This is the commercial superposition effect Zhipu anticipates. The revenue scale of the MaaS platform business is highly likely to achieve超额增长 (supernormal growth). According to Zhipu's predictions, future revenue from localized deployment and cloud business will be split fifty-fifty. Zhipu is willing to sacrifice gross margin for this: unlike the high margins of localized projects, cloud business has lower gross margins because significant costs are spent on computing power procurement. This is also an inevitable result of the strategic price reduction in MaaS, a necessary compromise for short-term market share争夺 (competition).

The Model is the Product, the Product is Growth

A popular saying in the large model industry is "the model is the product." This reflects a very simple first principle: users pay for the strongest model, and the process of building the model itself is creating a highly competitive product.

This also constitutes the core growth logic of MaaS. In the second half of this year, Zhipu's latest release, the GLM 4.5/4.6 base model, was the first to natively integrate reasoning, coding, and agent capabilities within a single model. Particularly in coding, GLM ranks并列第一 (joint first) with models from Anthropic and OpenAI on Code Arena. After its release, call volume on its MaaS platform grew exponentially.

Similar to the "vertical and horizontal strategy" in the first part, powerful model products are expected to trigger a data flywheel effect, which would be the most ideal moat in large model competition. Zhipu's commercialization goals will be realized within a complete platform encompassing the latest models, APIs, and development tools. MaaS becomes an "operating system"-level infrastructure for the AI era, serving thousands of industries and organizations of all sizes—from individuals and small development teams to large enterprises. And on this complete platform, there is no交付 (delivery/customization), only product managers.

According to data in Zhipu's prospectus, MaaS has over 2.9 million enterprise and application developers, making it one of the most active large model API platforms in China. Currently, 9 out of the top 10 internet companies in China are using Zhipu's GLM large model. Among them, the GLM Coding package (a standardized large model product for developers with monthly subscription fees) gained over 150,000 paid developers within two months of launch, with annual recurring revenue quickly exceeding 100 million yuan.

The Cost of the Strongest Model

The代价 (cost/price) Zhipu paid for the judgment that "users pay for the strongest model" is fully revealed in the prospectus.

From 2022 to 2024, and the first half of this year, Zhipu's adjusted net losses were RMB 97 million, RMB 621 million, RMB 2.466 billion, and RMB 1.752 billion, respectively. R&D expenses were RMB 80 million, RMB 530 million, RMB 2.20 billion, and RMB 1.59 billion, constituting the vast majority.

Zhipu points out that computing service fees as a proportion of R&D expenses rapidly increased from an initial 17% to over 70%. This means a large part of R&D costs is used to purchase computing power,同步 (synchronizing) with the rapid growth in MaaS platform call volume.

On one hand, extremely high R&D investment is Zhipu's冷静的战略选择 (calm strategic choice). Pre-training base model capabilities themselves consume immense computing power. As AGI development progresses, it needs to衍生出 (derive/evolve) more application models to improve the comprehensive performance capabilities of agents, thereby solidifying its comparative advantage in underlying model capabilities and attracting more developers and customers;

On the other hand, in the foreseeable medium term, competition among large tech companies around large models will not cool down. This is a race with no end in sight in the short to medium term and extremely intense ranking competition. Only by始终维持 (consistently maintaining) a position in the top tier can one gain market recognition and attract capital.

Therefore, "边跑边补能" (refueling while running) is the only option.

Unlike the dot-com bubble around the year 2000, participants in the large model competition all know that although long-term cash burn is not a good commercial narrative, it is a market consensus. While model capabilities and market size are changing强烈快速 (strongly and rapidly), staying at the table is paramount. When people look forward to the systemic changes brought by AI, creating a market space worth trillions of dollars, Zhipu is betting that a larger market space will create more revenue growth opportunities and more significant scale effects. Powerful base model capabilities and the MaaS business model both suggest a higher monetary multiplier. This is an arithmetic problem everyone playing the AI game understands.

Burning cash attempts to ensure Zhipu has a place in the AI-dominated future.

Professionalism, Focus, and the Implied Price of Perseverance

AGI is a long tug-of-war. In the words of Zhipu CEO Zhang Peng, it's like "running a marathon at a sprint pace." This contradictory description explains both sides of Zhipu: it诠释了 (interprets/illustrates) Zhipu's technical perseverance and also explains the reason for choosing capitalization.

Born out of the Knowledge Engineering Laboratory of Tsinghua University's Computer Science Department, Zhipu was officially established in 2019. Starting from the underlying architecture of base large models, Zhipu has continuously率先推出 (taken the lead in launching) multiple domestic "first models," accumulating a set of domestically original model portfolios.

Taking the base model GLM-4.5 released in July this year as an example, according to data from Frost & Sullivan, GLM-4.5 achieved the following leading positions globally.

Based on the evaluation results of 12 industry-standard benchmark tests conducted in July 2025, GLM-4.5 ranked third globally, first in China, and top among global open-source models;

In September 2025, according to the LLM Hallucination Leaderboard in the field of Retrieval-Augmented Generation (RAG), GLM-4.5's hallucination rate was the second lowest globally and the lowest in China;

Since the release of GLM-4.5 until now, Zhipu's token consumption on OpenRouter has consistently ranked among the global top ten and the top three in China;

During the same period, Zhipu's paid API revenue on OpenRouter exceeded the sum of all domestic models.

In the second week of December, Zhipu open-sourced GLM multimodal and agent series models for five consecutive days. On the Hugging Face Trending list's top 10, Zhipu occupied 5 spots.

This included not only AutoGLM, which can operate mobile phones on behalf of users, but also the GLM-4.6V multimodal large model, the GLM-ASR series speech recognition models, the GLMTTS industrial-grade text-to-speech system, and core technological achievements in video generation. At first glance, this move seems almost contrary to the logic emphasizing commercialization and profitability. However, at this sensitive time before listing, Zhipu's open-source strategy显示出 (shows/displays) the strong vision of a technology-core AI company. Promoting the prosperity of the entire AI technology stack and open-source community knows no time节点 (node/moment), even during the critical stage when an AI company's growth phase shifts from technical competition to capital operation.

This气质 (temperament/character) is precisely why Zhipu was initially called the Chinese company "most like OpenAI."

As OpenAI recently suspended several non-core projects, including the Sora video generation model, and concentrated all resources within an eight-week period on improving the performance and user experience of its core product, ChatGPT, the two companies' model routes have once again converged: model capability itself is decisive, and other matters should give way to it.

The only major difference might be the huge disparity in valuations between Chinese and US AI companies. OpenAI's ultra-high valuation and continuous financing ensure it has a constant supply of ammunition for model R&D even without going public. Chinese large model enterprises, however, have valuations that are lower by more than an order of magnitude, even though Zhipu is one of the best performers among them. In its 6 years since founding, Zhipu has raised over 8 rounds of financing, with a cumulative financing scale exceeding RMB 8.3 billion.

Now, Zhipu needs a broader market to raise more sufficient ammunition. The capital market's reaction will confirm the substance of independent large model companies represented by Zhipu, thereby pricing the entire Chinese large model industry.

The Future Battle

There is not yet an independent large model company listed on the Chinese capital market for reference. Various doubts surrounding the fierce competition in large models still permeate (弥散) the market. During the growth stage of tech companies, measuring their fundamentals and growth potential using financial profitability indicators is basically无效的 (ineffective). What measures the commercial value or growth logic of such companies are often multiple complex dimensions such as revenue performance, product capability, market space, and business model, and most importantly, expectations for the future.

技术乐观主义者 (Techno-optimists) firmly believe in the future outlined by artificial intelligence. Two days after Zhipu publicly released its prospectus, another large model company, MiniMax, also disclosed its prospectus. Whoever ultimately succeeds in listing first will undoubtedly leave a profound mark on the history of artificial intelligence development.

AI is an infinite war of intelligence concerning productivity and social transformation. The battle has just begun.

Perguntas relacionadas

QWhat is the latest valuation of Zhipu AI as confirmed in its Hong Kong IPO filing, and why is this significant?

AZhipu AI's latest valuation is 24.377 billion yuan, as confirmed in its Hong Kong IPO filing. This is significant because it is the first time the exact valuation of a major Chinese large language model (LLM) company has been publicly disclosed.

QAccording to the article, what are the two main components of Zhipu AI's core commercial revenue?

AZhipu AI's core commercial revenue is primarily composed of revenue from localized deployment (providing private LLM deployment for B2B clients) and cloud deployment (providing model API interfaces and token call services through its MaaS platform).

QWhat strategic reason does the article give for Zhipu AI's decision to lower prices on its MaaS platform, despite the negative impact on毛利率 (gross margin)?

AZhipu AI strategically lowered prices on its MaaS platform to gain more customers and access more application scenarios. This 'MaaS引流 + 本地化变现' (MaaS traffic acquisition + localized monetization) model is intended to build a customer and commercial loop, sacrificing short-term毛利率 for long-term market share.

QWhat does the phrase '模型即产品' (the model is the product) imply about the growth logic of MaaS platforms like Zhipu's?

AThe phrase '模型即产品' implies that users pay for the most powerful model, and the process of building the model itself is equivalent to creating a highly competitive product. A strong model product can trigger a data flywheel effect, which is considered an ideal moat in LLM competition and is the core growth logic for MaaS.

QHow does the article characterize the difference in valuation and funding environment between Chinese AI companies like Zhipu and their U.S. counterparts like OpenAI?

AThe article characterizes the difference as a '巨大落差' (huge gap). U.S. AI companies like OpenAI have ultra-high valuations and continuous financing, ensuring ample resources for R&D even without an IPO. In contrast, Chinese LLM companies have valuations that are '低了不止一个数量级' (lower by more than an order of magnitude), meaning Zhipu, despite being a top performer, needs the public market to raise sufficient capital.

Leituras Relacionadas

$500 to Buy OpenAI Stock: Silicon Valley's Most Respectable Liquidity Invitation

Silicon Valley's largest venture capital platform, AngelList, has launched a new fund called USVC, allowing U.S. retail investors to buy into high-profile AI companies like OpenAI, Anthropic, and xAI with a minimum investment of $500—no accredited investor status required. Promoted by AngelList co-founder Naval Ravikant, the fund is framed as an opportunity for ordinary people to access high-growth private tech investments traditionally reserved for VCs. However, critics argue it functions more like an exit vehicle for early insiders. USVC acquires shares not through primary rounds but largely via secondary transactions—purchasing stakes from early investors, VC funds, and employees looking to cash out at peak valuations. With companies like xAI heavily weighted in the portfolio, the fund effectively channels retail money into providing liquidity for insiders who entered at much lower valuations. The fund’s structure raises concerns: shares are illiquid, with no secondary market, and buybacks are limited and discretionary. The actual annual fee reaches 3.61%, far above the advertised 1% management fee. This model parallels the "low float, high fully diluted valuation" strategy seen in crypto, where early investors profit by selling to latecomers at inflated prices. The timing—alongside similar moves by platforms like Robinhood—suggests that Silicon Valley’s sudden interest in retail inclusion may be less about democratizing access and more about securing exits for insiders.

marsbitHá 22m

$500 to Buy OpenAI Stock: Silicon Valley's Most Respectable Liquidity Invitation

marsbitHá 22m

Trading

Spot
Futuros

Artigos em Destaque

O que é $S$

Compreender o SPERO: Uma Visão Abrangente Introdução ao SPERO À medida que o panorama da inovação continua a evoluir, o surgimento de tecnologias web3 e projetos de criptomoeda desempenha um papel fundamental na formação do futuro digital. Um projeto que tem atraído atenção neste campo dinâmico é o SPERO, denotado como SPERO,$$s$. Este artigo tem como objetivo reunir e apresentar informações detalhadas sobre o SPERO, para ajudar entusiastas e investidores a compreender as suas bases, objetivos e inovações nos domínios web3 e cripto. O que é o SPERO,$$s$? O SPERO,$$s$ é um projeto único dentro do espaço cripto que procura aproveitar os princípios da descentralização e da tecnologia blockchain para criar um ecossistema que promove o envolvimento, a utilidade e a inclusão financeira. O projeto é concebido para facilitar interações peer-to-peer de novas maneiras, proporcionando aos utilizadores soluções e serviços financeiros inovadores. No seu núcleo, o SPERO,$$s$ visa capacitar indivíduos ao fornecer ferramentas e plataformas que melhoram a experiência do utilizador no espaço das criptomoedas. Isso inclui a possibilidade de métodos de transação mais flexíveis, a promoção de iniciativas impulsionadas pela comunidade e a criação de caminhos para oportunidades financeiras através de aplicações descentralizadas (dApps). A visão subjacente do SPERO,$$s$ gira em torno da inclusão, visando fechar lacunas dentro das finanças tradicionais enquanto aproveita os benefícios da tecnologia blockchain. Quem é o Criador do SPERO,$$s$? A identidade do criador do SPERO,$$s$ permanece algo obscura, uma vez que existem recursos publicamente disponíveis limitados que fornecem informações detalhadas sobre o(s) seu(s) fundador(es). Esta falta de transparência pode resultar do compromisso do projeto com a descentralização—uma ética que muitos projetos web3 partilham, priorizando contribuições coletivas em vez de reconhecimento individual. Ao centrar as discussões em torno da comunidade e dos seus objetivos coletivos, o SPERO,$$s$ incorpora a essência do empoderamento sem destacar indivíduos específicos. Assim, compreender a ética e a missão do SPERO é mais importante do que identificar um criador singular. Quem são os Investidores do SPERO,$$s$? O SPERO,$$s$ é apoiado por uma diversidade de investidores que vão desde capitalistas de risco a investidores-anjo dedicados a promover a inovação no setor cripto. O foco desses investidores geralmente alinha-se com a missão do SPERO—priorizando projetos que prometem avanço tecnológico social, inclusão financeira e governança descentralizada. Essas fundações de investidores estão tipicamente interessadas em projetos que não apenas oferecem produtos inovadores, mas que também contribuem positivamente para a comunidade blockchain e os seus ecossistemas. O apoio desses investidores reforça o SPERO,$$s$ como um concorrente notável no domínio em rápida evolução dos projetos cripto. Como Funciona o SPERO,$$s$? O SPERO,$$s$ emprega uma estrutura multifacetada que o distingue de projetos de criptomoeda convencionais. Aqui estão algumas das características-chave que sublinham a sua singularidade e inovação: Governança Descentralizada: O SPERO,$$s$ integra modelos de governança descentralizada, capacitando os utilizadores a participar ativamente nos processos de tomada de decisão sobre o futuro do projeto. Esta abordagem promove um sentido de propriedade e responsabilidade entre os membros da comunidade. Utilidade do Token: O SPERO,$$s$ utiliza o seu próprio token de criptomoeda, concebido para servir várias funções dentro do ecossistema. Esses tokens permitem transações, recompensas e a facilitação de serviços oferecidos na plataforma, melhorando o envolvimento e a utilidade gerais. Arquitetura em Camadas: A arquitetura técnica do SPERO,$$s$ suporta modularidade e escalabilidade, permitindo a integração contínua de funcionalidades e aplicações adicionais à medida que o projeto evolui. Esta adaptabilidade é fundamental para manter a relevância no panorama cripto em constante mudança. Envolvimento da Comunidade: O projeto enfatiza iniciativas impulsionadas pela comunidade, empregando mecanismos que incentivam a colaboração e o feedback. Ao nutrir uma comunidade forte, o SPERO,$$s$ pode melhor atender às necessidades dos utilizadores e adaptar-se às tendências do mercado. Foco na Inclusão: Ao oferecer taxas de transação baixas e interfaces amigáveis, o SPERO,$$s$ visa atrair uma base de utilizadores diversificada, incluindo indivíduos que anteriormente podem não ter participado no espaço cripto. Este compromisso com a inclusão alinha-se com a sua missão abrangente de empoderamento através da acessibilidade. Cronologia do SPERO,$$s$ Compreender a história de um projeto fornece insights cruciais sobre a sua trajetória de desenvolvimento e marcos. Abaixo está uma cronologia sugerida que mapeia eventos significativos na evolução do SPERO,$$s$: Fase de Conceituação e Ideação: As ideias iniciais que formam a base do SPERO,$$s$ foram concebidas, alinhando-se de perto com os princípios de descentralização e foco na comunidade dentro da indústria blockchain. Lançamento do Whitepaper do Projeto: Após a fase conceitual, um whitepaper abrangente detalhando a visão, os objetivos e a infraestrutura tecnológica do SPERO,$$s$ foi lançado para atrair o interesse e o feedback da comunidade. Construção da Comunidade e Primeiros Envolvimentos: Esforços ativos de divulgação foram feitos para construir uma comunidade de primeiros adotantes e investidores potenciais, facilitando discussões em torno dos objetivos do projeto e angariando apoio. Evento de Geração de Tokens: O SPERO,$$s$ realizou um evento de geração de tokens (TGE) para distribuir os seus tokens nativos a apoiantes iniciais e estabelecer liquidez inicial dentro do ecossistema. Lançamento da dApp Inicial: A primeira aplicação descentralizada (dApp) associada ao SPERO,$$s$ foi lançada, permitindo que os utilizadores interagissem com as funcionalidades principais da plataforma. Desenvolvimento Contínuo e Parcerias: Atualizações e melhorias contínuas nas ofertas do projeto, incluindo parcerias estratégicas com outros players no espaço blockchain, moldaram o SPERO,$$s$ em um jogador competitivo e em evolução no mercado cripto. Conclusão O SPERO,$$s$ é um testemunho do potencial do web3 e das criptomoedas para revolucionar os sistemas financeiros e capacitar indivíduos. Com um compromisso com a governança descentralizada, o envolvimento da comunidade e funcionalidades inovadoras, abre caminho para um panorama financeiro mais inclusivo. Como em qualquer investimento no espaço cripto em rápida evolução, potenciais investidores e utilizadores são incentivados a pesquisar minuciosamente e a envolver-se de forma ponderada com os desenvolvimentos em curso dentro do SPERO,$$s$. O projeto demonstra o espírito inovador da indústria cripto, convidando a uma exploração mais aprofundada das suas inúmeras possibilidades. Embora a jornada do SPERO,$$s$ ainda esteja a desenrolar-se, os seus princípios fundamentais podem, de facto, influenciar o futuro de como interagimos com a tecnologia, as finanças e uns com os outros em ecossistemas digitais interconectados.

69 Visualizações TotaisPublicado em {updateTime}Atualizado em 2024.12.17

O que é $S$

O que é AGENT S

Agent S: O Futuro da Interação Autónoma no Web3 Introdução No panorama em constante evolução do Web3 e das criptomoedas, as inovações estão constantemente a redefinir a forma como os indivíduos interagem com plataformas digitais. Um projeto pioneiro, o Agent S, promete revolucionar a interação humano-computador através do seu framework aberto e agente. Ao abrir caminho para interações autónomas, o Agent S visa simplificar tarefas complexas, oferecendo aplicações transformadoras em inteligência artificial (IA). Esta exploração detalhada irá aprofundar-se nas complexidades do projeto, nas suas características únicas e nas implicações para o domínio das criptomoedas. O que é o Agent S? O Agent S é um framework aberto e agente, especificamente concebido para abordar três desafios fundamentais na automação de tarefas computacionais: Aquisição de Conhecimento Específico de Domínio: O framework aprende inteligentemente a partir de várias fontes de conhecimento externas e experiências internas. Esta abordagem dupla capacita-o a construir um rico repositório de conhecimento específico de domínio, melhorando o seu desempenho na execução de tarefas. Planeamento ao Longo de Longos Horizontes de Tarefas: O Agent S emprega planeamento hierárquico aumentado por experiência, uma abordagem estratégica que facilita a decomposição e execução eficientes de tarefas intrincadas. Esta característica melhora significativamente a sua capacidade de gerir múltiplas subtarefas de forma eficiente e eficaz. Gestão de Interfaces Dinâmicas e Não Uniformes: O projeto introduz a Interface Agente-Computador (ACI), uma solução inovadora que melhora a interação entre agentes e utilizadores. Utilizando Modelos de Linguagem Multimodais de Grande Escala (MLLMs), o Agent S pode navegar e manipular diversas interfaces gráficas de utilizador de forma fluida. Através destas características pioneiras, o Agent S fornece um framework robusto que aborda as complexidades envolvidas na automação da interação humana com máquinas, preparando o terreno para uma infinidade de aplicações em IA e além. Quem é o Criador do Agent S? Embora o conceito de Agent S seja fundamentalmente inovador, informações específicas sobre o seu criador permanecem elusivas. O criador é atualmente desconhecido, o que destaca ou o estágio nascente do projeto ou a escolha estratégica de manter os membros fundadores em anonimato. Independentemente da anonimidade, o foco permanece nas capacidades e no potencial do framework. Quem são os Investidores do Agent S? Como o Agent S é relativamente novo no ecossistema criptográfico, informações detalhadas sobre os seus investidores e financiadores não estão explicitamente documentadas. A falta de informações disponíveis publicamente sobre as fundações de investimento ou organizações que apoiam o projeto levanta questões sobre a sua estrutura de financiamento e roteiro de desenvolvimento. Compreender o apoio é crucial para avaliar a sustentabilidade do projeto e o seu impacto potencial no mercado. Como Funciona o Agent S? No núcleo do Agent S reside uma tecnologia de ponta que lhe permite funcionar eficazmente em diversos ambientes. O seu modelo operacional é construído em torno de várias características-chave: Interação Humano-Computador Semelhante: O framework oferece planeamento avançado em IA, esforçando-se para tornar as interações com computadores mais intuitivas. Ao imitar o comportamento humano na execução de tarefas, promete elevar as experiências dos utilizadores. Memória Narrativa: Utilizada para aproveitar experiências de alto nível, o Agent S utiliza memória narrativa para acompanhar os históricos de tarefas, melhorando assim os seus processos de tomada de decisão. Memória Episódica: Esta característica fornece aos utilizadores orientações passo a passo, permitindo que o framework ofereça suporte contextual à medida que as tarefas se desenrolam. Suporte para OpenACI: Com a capacidade de funcionar localmente, o Agent S permite que os utilizadores mantenham o controlo sobre as suas interações e fluxos de trabalho, alinhando-se com a ética descentralizada do Web3. Fácil Integração com APIs Externas: A sua versatilidade e compatibilidade com várias plataformas de IA garantem que o Agent S possa integrar-se perfeitamente em ecossistemas tecnológicos existentes, tornando-o uma escolha apelativa para desenvolvedores e organizações. Estas funcionalidades contribuem coletivamente para a posição única do Agent S no espaço cripto, à medida que automatiza tarefas complexas e em múltiplos passos com mínima intervenção humana. À medida que o projeto evolui, as suas potenciais aplicações no Web3 podem redefinir a forma como as interações digitais se desenrolam. Cronologia do Agent S O desenvolvimento e os marcos do Agent S podem ser encapsulados numa cronologia que destaca os seus eventos significativos: 27 de Setembro de 2024: O conceito de Agent S foi lançado num artigo de pesquisa abrangente intitulado “Um Framework Agente Aberto que Usa Computadores como um Humano”, mostrando a base para o projeto. 10 de Outubro de 2024: O artigo de pesquisa foi disponibilizado publicamente no arXiv, oferecendo uma exploração aprofundada do framework e da sua avaliação de desempenho com base no benchmark OSWorld. 12 de Outubro de 2024: Uma apresentação em vídeo foi lançada, proporcionando uma visão visual das capacidades e características do Agent S, envolvendo ainda mais potenciais utilizadores e investidores. Estes marcos na cronologia não apenas ilustram o progresso do Agent S, mas também indicam o seu compromisso com a transparência e o envolvimento da comunidade. Pontos-Chave Sobre o Agent S À medida que o framework Agent S continua a evoluir, várias características-chave destacam-se, sublinhando a sua natureza inovadora e potencial: Framework Inovador: Concebido para proporcionar um uso intuitivo de computadores semelhante à interação humana, o Agent S traz uma abordagem nova à automação de tarefas. Interação Autónoma: A capacidade de interagir autonomamente com computadores através de GUI significa um avanço em direção a soluções computacionais mais inteligentes e eficientes. Automação de Tarefas Complexas: Com a sua metodologia robusta, pode automatizar tarefas complexas e em múltiplos passos, tornando os processos mais rápidos e menos propensos a erros. Melhoria Contínua: Os mecanismos de aprendizagem permitem que o Agent S melhore a partir de experiências passadas, aprimorando continuamente o seu desempenho e eficácia. Versatilidade: A sua adaptabilidade em diferentes ambientes operacionais, como OSWorld e WindowsAgentArena, garante que pode servir uma ampla gama de aplicações. À medida que o Agent S se posiciona no panorama do Web3 e das criptomoedas, o seu potencial para melhorar as capacidades de interação e automatizar processos significa um avanço significativo nas tecnologias de IA. Através do seu framework inovador, o Agent S exemplifica o futuro das interações digitais, prometendo uma experiência mais fluida e eficiente para os utilizadores em diversas indústrias. Conclusão O Agent S representa um ousado avanço na união da IA e do Web3, com a capacidade de redefinir a forma como interagimos com a tecnologia. Embora ainda esteja nas suas fases iniciais, as possibilidades para a sua aplicação são vastas e cativantes. Através do seu framework abrangente que aborda desafios críticos, o Agent S visa trazer interações autónomas para o primeiro plano da experiência digital. À medida que avançamos mais profundamente nos domínios das criptomoedas e da descentralização, projetos como o Agent S desempenharão, sem dúvida, um papel crucial na formação do futuro da tecnologia e da colaboração humano-computador.

529 Visualizações TotaisPublicado em {updateTime}Atualizado em 2025.01.14

O que é AGENT S

Como comprar S

Bem-vindo à HTX.com!Tornámos a compra de Sonic (S) simples e conveniente.Segue o nosso guia passo a passo para iniciar a tua jornada no mundo das criptos.Passo 1: cria a tua conta HTXUtiliza o teu e-mail ou número de telefone para te inscreveres numa conta gratuita na HTX.Desfruta de um processo de inscrição sem complicações e desbloqueia todas as funcionalidades.Obter a minha contaPasso 2: vai para Comprar Cripto e escolhe o teu método de pagamentoCartão de crédito/débito: usa o teu visa ou mastercard para comprar Sonic (S) instantaneamente.Saldo: usa os fundos da tua conta HTX para transacionar sem problemas.Terceiros: adicionamos métodos de pagamento populares, como Google Pay e Apple Pay, para aumentar a conveniência.P2P: transaciona diretamente com outros utilizadores na HTX.Mercado de balcão (OTC): oferecemos serviços personalizados e taxas de câmbio competitivas para os traders.Passo 3: armazena teu Sonic (S)Depois de comprar o teu Sonic (S), armazena-o na tua conta HTX.Alternativamente, podes enviá-lo para outro lugar através de transferência blockchain ou usá-lo para transacionar outras criptomoedas.Passo 4: transaciona Sonic (S)Transaciona facilmente Sonic (S) no mercado à vista da HTX.Acede simplesmente à tua conta, seleciona o teu par de trading, executa as tuas transações e monitoriza em tempo real.Oferecemos uma experiência de fácil utilização tanto para principiantes como para traders experientes.

984 Visualizações TotaisPublicado em {updateTime}Atualizado em 2025.03.21

Como comprar S

Discussões

Bem-vindo à Comunidade HTX. Aqui, pode manter-se informado sobre os mais recentes desenvolvimentos da plataforma e obter acesso a análises profissionais de mercado. As opiniões dos utilizadores sobre o preço de S (S) são apresentadas abaixo.

活动图片