Racing to Be the First Stock: The Substance, Capabilities, and Ambition of China's Largest Independent Model Company

marsbitОпубліковано о 2025-12-23Востаннє оновлено о 2025-12-23

Анотація

Zhipu AI, China's largest independent large language model (LLM) company by revenue, has passed its listing hearing on the Hong Kong Stock Exchange with a valuation of RMB 24.377 billion. Its IPO filing provides the first clear look at the financials of a major Chinese LLM player. From 2022 to 2024, Zhipu's revenue grew at a 130% CAGR, reaching RMB 310 million in 2024. Nearly 85% of its revenue comes from on-premise model deployments for enterprise clients, with the remainder from its MaaS (Model-as-a-Service) platform. Despite rapid revenue growth, the company reported significant adjusted net losses, driven overwhelmingly by R&D expenses which reached RMB 1.59 billion in H1 2025. A major portion of these costs is attributed to computing power, essential for training its flagship models. A key part of Zhipu's strategy is a "land and expand" approach: using strategic price cuts on its MaaS platform to attract a large user base (over 1.2 million enterprise developers) and then converting them into high-value on-premise clients. The release of its powerful open-source base model, GLM-4.5/4.6, which ranks among the top global models in several benchmarks, led to an exponential increase in API calls and token consumption. The company is betting that continued heavy R&D investment is necessary to stay at the forefront of the intensely competitive global AI market. Its leadership believes that possessing a superior base model is the ultimate product and the key to long-term grow...

24.377 billion yuan—this is the latest valuation confirmed by Zhipu in its prospectus made public on the 17th after passing the Hong Kong Stock Exchange's hearing. For the first time, people know exactly the valuation amount of a major Chinese large model company.

This is an opportune moment. Three years have passed since ChatGPT dropped a bombshell in the industry. After the frenzy of the "hundred-model battle," the remaining Chinese large model players, having proven that their innovation and technical capabilities are second to none, are now sprinting toward the capital markets.

During this critical transition period from "youth to adulthood," the market expects large model companies to demonstrate to everyone how "novel, tech-showcasing" model technology transitions into end-to-end落地 (landing/implementation) of "practical, adaptable" large models.

As the first company to successfully "come ashore" (go public/secure funding) from the hundred-model battle, Zhipu's answer is not entirely satisfactory. The scale of losses disclosed in the prospectus far exceeds revenue growth, and R&D expenses are still increasing significantly, showing no sign of stopping the "cash burn."

If this were a mature company, such a balance sheet would be quite unsatisfactory. But large models are special.

Zhipu is one of China's earliest independent large model companies, yet it is less than 6 years old. The reason the AI industry excites countless people is its revolutionary potential for the future, which is difficult to deduce directly from past history because change often happens suddenly and exponentially at a certain moment.

This is Zhipu's bet, or what could be called its vision. Before the arrival of the AGI future that many firmly believe in, Zhipu hopes to be as prepared as possible. This involves a series of complex trade-offs and also convincing the market to believe.

Making people believe—this is a gamble full of hope.

Core Data Summary

Zhipu's core commercial revenue primarily consists of localized deployment and cloud deployment. The former refers to providing large model privatization deployment for B-end customers, while the latter provides model API interfaces and token调用 (calling/invocation) services to users via its MaaS platform.

The prospectus shows that based on 2024 revenue, in the enterprise LLM field, Zhipu is already China's largest independent large model vendor and the second-largest large model vendor overall, surpassing Alibaba and SenseTime, with a market share of 6.6%.

From 2022 to 2024, Zhipu's revenues were RMB 60 million, RMB 120 million, and RMB 310 million, respectively, with a CAGR of 130%. Revenues for H1 2024 and H1 2025 were RMB 40 million and RMB 190 million, respectively, a year-on-year increase of over 300%;

Nearly 85% of Zhipu's revenue comes from the localized deployment business, primarily distributed across vertical industries such as internet technology, public services, telecommunications, traditional enterprises, consumer electronics, as well as retail, media, and consulting;

In H1 2025, Zhipu's overseas revenue proportion rapidly increased to nearly 12%, mainly from markets in Malaysia and Singapore. Under the "Belt and Road" strategy, Zhipu is helping overseas countries deploy sovereign large models, achieving a breakthrough of zero for the出海 (going global) of China's large model technology;

From 2022 to 2024 and H1 2025, Zhipu's gross margins were 54.6%, 64.6%, 56.3%, and 50.0%, respectively. For comparison, domestic software outsourcing company China Software typically has around 30%. Zhipu's gross margin for localized large model deployment business is not low;

Notably, the decline in gross margin is mainly due to price fluctuations in the MaaS platform business. Affected by market price wars, Zhipu increased price cuts to gain more customers and application scenarios;

The result of this is that in H1 2025, Zhipu had 95 and 3061 institutional customers for localized and cloud deployment respectively, while the full-year 2024 figures were 123 and 5457 institutional customers. The price reduction in the MaaS business not only increased the number of cloud institutional customers but also had a significant引流 (diversion/traffic acquisition) effect on the localized deployment business;

As of Q3 2025, the company's models have empowered over 80 million end-user devices and more than 45 million developers, and it has over 12,000 institutional customers, a significant increase from the 8,000 customers in H1 2025.

Additionally, in November 2025, Zhipu's daily token consumption reached 4.2 trillion, compared to 500 million in 2022. This is the result of Zhipu releasing its new generation GLM 4.5/4.6 open-source base models and a direct reflection of user volume and调用量 (call volume).

Revenue is More Important Than Anything, But Revenue Requires Patience

In its prospectus, Zhipu introduces a "vertical and horizontal strategy" narrative for the growth prospects of commercial revenue.

Vertically, price reductions and capacity expansion in the MaaS platform business have attracted a wide range of users and application scenarios. Introducing more users will divert traffic to the localized deployment business. This "MaaS traffic acquisition + localized monetization" model will initially build a cycle of customers and commerce.

Horizontally, similar to OpenAI and Anthropic, Zhipu's MaaS platform is highly flexible and scalable. Unlike the traditional impression of heavy-delivery customization projects, Zhipu points out that the enterprise MaaS projects, which constitute the vast majority of revenue, deliver more general model capabilities, thus enabling faster scaling of token call volumes.

The vertical customer cycle model and the horizontal general solution capability scaling reinforce Zhipu's label as China's independent model company with the largest revenue volume. This is the commercial superposition effect Zhipu anticipates. The revenue scale of the MaaS platform business is highly likely to achieve超额增长 (supernormal growth). According to Zhipu's predictions, future revenue from localized deployment and cloud business will be split fifty-fifty. Zhipu is willing to sacrifice gross margin for this: unlike the high margins of localized projects, cloud business has lower gross margins because significant costs are spent on computing power procurement. This is also an inevitable result of the strategic price reduction in MaaS, a necessary compromise for short-term market share争夺 (competition).

The Model is the Product, the Product is Growth

A popular saying in the large model industry is "the model is the product." This reflects a very simple first principle: users pay for the strongest model, and the process of building the model itself is creating a highly competitive product.

This also constitutes the core growth logic of MaaS. In the second half of this year, Zhipu's latest release, the GLM 4.5/4.6 base model, was the first to natively integrate reasoning, coding, and agent capabilities within a single model. Particularly in coding, GLM ranks并列第一 (joint first) with models from Anthropic and OpenAI on Code Arena. After its release, call volume on its MaaS platform grew exponentially.

Similar to the "vertical and horizontal strategy" in the first part, powerful model products are expected to trigger a data flywheel effect, which would be the most ideal moat in large model competition. Zhipu's commercialization goals will be realized within a complete platform encompassing the latest models, APIs, and development tools. MaaS becomes an "operating system"-level infrastructure for the AI era, serving thousands of industries and organizations of all sizes—from individuals and small development teams to large enterprises. And on this complete platform, there is no交付 (delivery/customization), only product managers.

According to data in Zhipu's prospectus, MaaS has over 2.9 million enterprise and application developers, making it one of the most active large model API platforms in China. Currently, 9 out of the top 10 internet companies in China are using Zhipu's GLM large model. Among them, the GLM Coding package (a standardized large model product for developers with monthly subscription fees) gained over 150,000 paid developers within two months of launch, with annual recurring revenue quickly exceeding 100 million yuan.

The Cost of the Strongest Model

The代价 (cost/price) Zhipu paid for the judgment that "users pay for the strongest model" is fully revealed in the prospectus.

From 2022 to 2024, and the first half of this year, Zhipu's adjusted net losses were RMB 97 million, RMB 621 million, RMB 2.466 billion, and RMB 1.752 billion, respectively. R&D expenses were RMB 80 million, RMB 530 million, RMB 2.20 billion, and RMB 1.59 billion, constituting the vast majority.

Zhipu points out that computing service fees as a proportion of R&D expenses rapidly increased from an initial 17% to over 70%. This means a large part of R&D costs is used to purchase computing power,同步 (synchronizing) with the rapid growth in MaaS platform call volume.

On one hand, extremely high R&D investment is Zhipu's冷静的战略选择 (calm strategic choice). Pre-training base model capabilities themselves consume immense computing power. As AGI development progresses, it needs to衍生出 (derive/evolve) more application models to improve the comprehensive performance capabilities of agents, thereby solidifying its comparative advantage in underlying model capabilities and attracting more developers and customers;

On the other hand, in the foreseeable medium term, competition among large tech companies around large models will not cool down. This is a race with no end in sight in the short to medium term and extremely intense ranking competition. Only by始终维持 (consistently maintaining) a position in the top tier can one gain market recognition and attract capital.

Therefore, "边跑边补能" (refueling while running) is the only option.

Unlike the dot-com bubble around the year 2000, participants in the large model competition all know that although long-term cash burn is not a good commercial narrative, it is a market consensus. While model capabilities and market size are changing强烈快速 (strongly and rapidly), staying at the table is paramount. When people look forward to the systemic changes brought by AI, creating a market space worth trillions of dollars, Zhipu is betting that a larger market space will create more revenue growth opportunities and more significant scale effects. Powerful base model capabilities and the MaaS business model both suggest a higher monetary multiplier. This is an arithmetic problem everyone playing the AI game understands.

Burning cash attempts to ensure Zhipu has a place in the AI-dominated future.

Professionalism, Focus, and the Implied Price of Perseverance

AGI is a long tug-of-war. In the words of Zhipu CEO Zhang Peng, it's like "running a marathon at a sprint pace." This contradictory description explains both sides of Zhipu: it诠释了 (interprets/illustrates) Zhipu's technical perseverance and also explains the reason for choosing capitalization.

Born out of the Knowledge Engineering Laboratory of Tsinghua University's Computer Science Department, Zhipu was officially established in 2019. Starting from the underlying architecture of base large models, Zhipu has continuously率先推出 (taken the lead in launching) multiple domestic "first models," accumulating a set of domestically original model portfolios.

Taking the base model GLM-4.5 released in July this year as an example, according to data from Frost & Sullivan, GLM-4.5 achieved the following leading positions globally.

Based on the evaluation results of 12 industry-standard benchmark tests conducted in July 2025, GLM-4.5 ranked third globally, first in China, and top among global open-source models;

In September 2025, according to the LLM Hallucination Leaderboard in the field of Retrieval-Augmented Generation (RAG), GLM-4.5's hallucination rate was the second lowest globally and the lowest in China;

Since the release of GLM-4.5 until now, Zhipu's token consumption on OpenRouter has consistently ranked among the global top ten and the top three in China;

During the same period, Zhipu's paid API revenue on OpenRouter exceeded the sum of all domestic models.

In the second week of December, Zhipu open-sourced GLM multimodal and agent series models for five consecutive days. On the Hugging Face Trending list's top 10, Zhipu occupied 5 spots.

This included not only AutoGLM, which can operate mobile phones on behalf of users, but also the GLM-4.6V multimodal large model, the GLM-ASR series speech recognition models, the GLMTTS industrial-grade text-to-speech system, and core technological achievements in video generation. At first glance, this move seems almost contrary to the logic emphasizing commercialization and profitability. However, at this sensitive time before listing, Zhipu's open-source strategy显示出 (shows/displays) the strong vision of a technology-core AI company. Promoting the prosperity of the entire AI technology stack and open-source community knows no time节点 (node/moment), even during the critical stage when an AI company's growth phase shifts from technical competition to capital operation.

This气质 (temperament/character) is precisely why Zhipu was initially called the Chinese company "most like OpenAI."

As OpenAI recently suspended several non-core projects, including the Sora video generation model, and concentrated all resources within an eight-week period on improving the performance and user experience of its core product, ChatGPT, the two companies' model routes have once again converged: model capability itself is decisive, and other matters should give way to it.

The only major difference might be the huge disparity in valuations between Chinese and US AI companies. OpenAI's ultra-high valuation and continuous financing ensure it has a constant supply of ammunition for model R&D even without going public. Chinese large model enterprises, however, have valuations that are lower by more than an order of magnitude, even though Zhipu is one of the best performers among them. In its 6 years since founding, Zhipu has raised over 8 rounds of financing, with a cumulative financing scale exceeding RMB 8.3 billion.

Now, Zhipu needs a broader market to raise more sufficient ammunition. The capital market's reaction will confirm the substance of independent large model companies represented by Zhipu, thereby pricing the entire Chinese large model industry.

The Future Battle

There is not yet an independent large model company listed on the Chinese capital market for reference. Various doubts surrounding the fierce competition in large models still permeate (弥散) the market. During the growth stage of tech companies, measuring their fundamentals and growth potential using financial profitability indicators is basically无效的 (ineffective). What measures the commercial value or growth logic of such companies are often multiple complex dimensions such as revenue performance, product capability, market space, and business model, and most importantly, expectations for the future.

技术乐观主义者 (Techno-optimists) firmly believe in the future outlined by artificial intelligence. Two days after Zhipu publicly released its prospectus, another large model company, MiniMax, also disclosed its prospectus. Whoever ultimately succeeds in listing first will undoubtedly leave a profound mark on the history of artificial intelligence development.

AI is an infinite war of intelligence concerning productivity and social transformation. The battle has just begun.

Пов'язані питання

QWhat is the latest valuation of Zhipu AI as confirmed in its Hong Kong IPO filing, and why is this significant?

AZhipu AI's latest valuation is 24.377 billion yuan, as confirmed in its Hong Kong IPO filing. This is significant because it is the first time the exact valuation of a major Chinese large language model (LLM) company has been publicly disclosed.

QAccording to the article, what are the two main components of Zhipu AI's core commercial revenue?

AZhipu AI's core commercial revenue is primarily composed of revenue from localized deployment (providing private LLM deployment for B2B clients) and cloud deployment (providing model API interfaces and token call services through its MaaS platform).

QWhat strategic reason does the article give for Zhipu AI's decision to lower prices on its MaaS platform, despite the negative impact on毛利率 (gross margin)?

AZhipu AI strategically lowered prices on its MaaS platform to gain more customers and access more application scenarios. This 'MaaS引流 + 本地化变现' (MaaS traffic acquisition + localized monetization) model is intended to build a customer and commercial loop, sacrificing short-term毛利率 for long-term market share.

QWhat does the phrase '模型即产品' (the model is the product) imply about the growth logic of MaaS platforms like Zhipu's?

AThe phrase '模型即产品' implies that users pay for the most powerful model, and the process of building the model itself is equivalent to creating a highly competitive product. A strong model product can trigger a data flywheel effect, which is considered an ideal moat in LLM competition and is the core growth logic for MaaS.

QHow does the article characterize the difference in valuation and funding environment between Chinese AI companies like Zhipu and their U.S. counterparts like OpenAI?

AThe article characterizes the difference as a '巨大落差' (huge gap). U.S. AI companies like OpenAI have ultra-high valuations and continuous financing, ensuring ample resources for R&D even without an IPO. In contrast, Chinese LLM companies have valuations that are '低了不止一个数量级' (lower by more than an order of magnitude), meaning Zhipu, despite being a top performer, needs the public market to raise sufficient capital.

Пов'язані матеріали

Google and Amazon Simultaneously Invest Heavily in a Competitor: The Most Absurd Business Logic of the AI Era Is Becoming Reality

In a span of four days, Amazon announced an additional $25 billion investment, and Google pledged up to $40 billion—both direct competitors pouring over $65 billion into the same AI startup, Anthropic. Rather than a typical venture capital move, this signals the latest escalation in the cloud wars. The core of the deal is not equity but compute pre-orders: Anthropic must spend the majority of these funds on AWS and Google Cloud services and chips, effectively locking in massive future compute consumption. This reflects a shift in cloud market dynamics—enterprises now choose cloud providers based on which hosts the best AI models, not just price or stability. With OpenAI deeply tied to Microsoft, Anthropic’s Claude has become the only viable strategic asset for Google and Amazon to remain competitive. Anthropic’s annualized revenue has surged to $30 billion, and it is expanding into verticals like biotech, positioning itself as a cross-industry AI infrastructure layer. However, this funding comes with constraints: Anthropic’s independence is challenged as it balances two rival investors, its safety-first narrative faces pressure from regulatory scrutiny, and its path to IPO introduces new financial pressures. Globally, this accelerates a "tri-polar" closed-loop structure in AI infrastructure, with Microsoft-OpenAI, Google-Anthropic, and Amazon-Anthropic forming exclusive model-cloud alliances. In contrast, China’s landscape differs—investments like Alibaba and Tencent backing open-source model firm DeepSeek reflect a more decoupled approach, though closed-source models from major cloud providers still dominate. The $65 billion bet is ultimately about securing a seat at the table in an AI-defined future—where missing the model layer means losing the cloud war.

marsbit19 хв тому

Google and Amazon Simultaneously Invest Heavily in a Competitor: The Most Absurd Business Logic of the AI Era Is Becoming Reality

marsbit19 хв тому

Computing Power Constrained, Why Did DeepSeek-V4 Open Source?

DeepSeek-V4 has been released as a preview open-source model, featuring 1 million tokens of context length as a baseline capability—previously a premium feature locked behind enterprise paywalls by major overseas AI firms. The official announcement, however, openly acknowledges computational constraints, particularly limited service throughput for the high-end DeepSeek-V4-Pro version due to restricted high-end computing power. Rather than competing on pure scale, DeepSeek adopts a pragmatic approach that balances algorithmic innovation with hardware realities in China’s AI ecosystem. The V4-Pro model uses a highly sparse architecture with 1.6T total parameters but only activates 49B during inference. It performs strongly in agentic coding, knowledge-intensive tasks, and STEM reasoning, competing closely with top-tier closed models like Gemini Pro 3.1 and Claude Opus 4.6 in certain scenarios. A key strategic product is the Flash edition, with 284B total parameters but only 13B activated—making it cost-effective and accessible for mid- and low-tier hardware, including domestic AI chips from Huawei (Ascend), Cambricon, and Hygon. This design supports broader adoption across developers and SMEs while stimulating China's domestic semiconductor ecosystem. Despite facing talent outflow and intense competition in user traffic—with rivals like Doubao and Qianwen leading in monthly active users—DeepSeek has maintained technical momentum. The release also comes amid reports of a new funding round targeting a valuation exceeding $10 billion, potentially setting a new record in China’s LLM sector. Ultimately, DeepSeek-V4 represents a shift toward open yet realistic infrastructure development in the constrained compute landscape of Chinese AI, emphasizing engineering efficiency and domestic hardware compatibility over pure model scale.

marsbit56 хв тому

Computing Power Constrained, Why Did DeepSeek-V4 Open Source?

marsbit56 хв тому

Торгівля

Спот
Ф'ючерси

Популярні статті

Що таке $S$

Розуміння SPERO: Комплексний огляд Вступ до SPERO Оскільки ландшафт інновацій продовжує еволюціонувати, виникнення технологій web3 та криптовалютних проектів відіграє ключову роль у формуванні цифрового майбутнього. Один з проектів, який привернув увагу в цій динамічній сфері, — це SPERO, позначений як SPERO,$$s$. Ця стаття має на меті зібрати та представити детальну інформацію про SPERO, щоб допомогти ентузіастам та інвесторам зрозуміти його основи, цілі та інновації в рамках web3 та крипто-сектору. Що таке SPERO,$$s$? SPERO,$$s$ — це унікальний проект у криптопросторі, який прагне використати принципи децентралізації та технології блокчейн для створення екосистеми, що сприяє залученню, корисності та фінансовій інклюзії. Проект розроблений для полегшення взаємодії між користувачами новими способами, надаючи їм інноваційні фінансові рішення та послуги. У своїй основі SPERO,$$s$ прагне надати можливості індивідам, забезпечуючи інструменти та платформи, які покращують користувацький досвід у криптовалютному просторі. Це включає в себе можливість більш гнучких методів транзакцій, сприяння ініціативам, що підтримуються спільнотою, та створення шляхів для фінансових можливостей через децентралізовані додатки (dApps). Основна концепція SPERO,$$s$ обертається навколо інклюзивності, прагнучи зменшити розриви в традиційній фінансовій системі, використовуючи переваги технології блокчейн. Хто є творцем SPERO,$$s$? Особистість творця SPERO,$$s$ залишається дещо невідомою, оскільки є обмежені публічно доступні ресурси, що надають детальну інформацію про його засновників. Ця відсутність прозорості може бути наслідком зобов'язання проекту до децентралізації — етики, яку багато проектів web3 поділяють, ставлячи колективні внески вище за індивідуальне визнання. Зосереджуючи обговорення навколо спільноти та її колективних цілей, SPERO,$$s$ втілює суть наділення без виділення конкретних осіб. Таким чином, розуміння етики та місії SPERO є більш важливим, ніж ідентифікація єдиного творця. Хто є інвесторами SPERO,$$s$? SPERO,$$s$ підтримується різноманітними інвесторами, починаючи від венчурних капіталістів до ангельських інвесторів, які прагнуть сприяти інноваціям у крипто-секторі. Зосередження цих інвесторів зазвичай узгоджується з місією SPERO — пріоритет надається проектам, які обіцяють технологічний прогрес у суспільстві, фінансову інклюзію та децентралізоване управління. Ці інвесторські фонди зазвичай зацікавлені в проектах, які не лише пропонують інноваційні продукти, але й позитивно впливають на спільноту блокчейн та її екосистеми. Підтримка з боку цих інвесторів підкріплює SPERO,$$s$ як значного конкурента в швидко змінюваній сфері крипто-проектів. Як працює SPERO,$$s$? SPERO,$$s$ використовує багатогранну структуру, яка відрізняє його від традиційних криптовалютних проектів. Ось деякі ключові особливості, які підкреслюють його унікальність та інноваційність: Децентралізоване управління: SPERO,$$s$ інтегрує моделі децентралізованого управління, надаючи користувачам можливість активно брати участь у процесах прийняття рішень щодо майбутнього проекту. Цей підхід сприяє відчуттю власності та відповідальності серед членів спільноти. Корисність токена: SPERO,$$s$ використовує свій власний криптовалютний токен, розроблений для виконання різних функцій в екосистемі. Ці токени дозволяють здійснювати транзакції, отримувати винагороди та полегшувати послуги, що пропонуються на платформі, підвищуючи загальну залученість та корисність. Шарова архітектура: Технічна архітектура SPERO,$$s$ підтримує модульність та масштабованість, що дозволяє безперешкодно інтегрувати додаткові функції та додатки в міру розвитку проекту. Ця адаптивність є надзвичайно важливою для збереження актуальності в постійно змінюваному крипто-ландшафті. Залучення спільноти: Проект підкреслює ініціативи, що підтримуються спільнотою, використовуючи механізми, які стимулюють співпрацю та зворотний зв'язок. Підтримуючи сильну спільноту, SPERO,$$s$ може краще задовольняти потреби користувачів та адаптуватися до ринкових тенденцій. Фокус на інклюзію: Пропонуючи низькі комісії за транзакції та зручні інтерфейси, SPERO,$$s$ прагне залучити різноманітну базу користувачів, включаючи осіб, які раніше не брали участі в крипто-просторі. Це зобов'язання до інклюзії узгоджується з його загальною місією наділення через доступність. Хронологія SPERO,$$s$ Розуміння історії проекту надає важливі уявлення про його розвиток та етапи. Нижче наведено пропоновану хронологію, що відображає значні події в еволюції SPERO,$$s$: Етап концептуалізації та ідеації: Початкові ідеї, що стали основою SPERO,$$s$, були сформовані, тісно пов'язані з принципами децентралізації та фокусом на спільноті в індустрії блокчейн. Запуск білого паперу проекту: Після концептуального етапу був випущений комплексний білий папір, що детально описує бачення, цілі та технологічну інфраструктуру SPERO,$$s$, щоб залучити інтерес та зворотний зв'язок від спільноти. Створення спільноти та ранні залучення: Активні зусилля були спрямовані на створення спільноти ранніх прихильників та потенційних інвесторів, що полегшило обговорення цілей проекту та отримання підтримки. Подія генерації токенів: SPERO,$$s$ провів подію генерації токенів (TGE) для розподілу своїх рідних токенів серед ранніх прихильників та встановлення початкової ліквідності в екосистемі. Запуск початкового dApp: Перший децентралізований додаток (dApp), пов'язаний з SPERO,$$s$, став доступним, дозволяючи користувачам взаємодіяти з основними функціями платформи. Постійний розвиток та партнерства: Безперервні оновлення та вдосконалення пропозицій проекту, включаючи стратегічні партнерства з іншими учасниками блокчейн-простору, сформували SPERO,$$s$ у конкурентоспроможного та еволюціонуючого гравця на крипто-ринку. Висновок SPERO,$$s$ є свідченням потенціалу web3 та криптовалют для революціонізації фінансових систем та наділення індивідів. Завдяки зобов'язанню до децентралізованого управління, залучення спільноти та інноваційно спроектованих функцій, він прокладає шлях до більш інклюзивного фінансового ландшафту. Як і з будь-якими інвестиціями в швидко змінюваному крипто-просторі, потенційним інвесторам та користувачам рекомендується ретельно досліджувати та обдумано взаємодіяти з поточними подіями в SPERO,$$s$. Проект демонструє інноваційний дух крипто-індустрії, запрошуючи до подальшого дослідження його численних можливостей. Хоча подорож SPERO,$$s$ ще триває, його основні принципи можуть справді вплинути на майбутнє того, як ми взаємодіємо з технологією, фінансами та один з одним у взаємопов'язаних цифрових екосистемах.

73 переглядів усьогоОпубліковано 2024.12.17Оновлено 2024.12.17

Що таке $S$

Що таке AGENT S

Агент S: Майбутнє автономної взаємодії в Web3 Вступ У постійно змінюваному ландшафті Web3 та криптовалюти інновації постійно переосмислюють, як люди взаємодіють з цифровими платформами. Один з таких новаторських проектів, Агент S, обіцяє революціонізувати взаємодію людини з комп'ютером через свою відкриту агентну структуру. Прокладаючи шлях для автономних взаємодій, Агент S прагне спростити складні завдання, пропонуючи трансформаційні застосування в штучному інтелекті (ШІ). Це детальне дослідження заглиблюється в складності проекту, його унікальні особливості та наслідки для сфери криптовалюти. Що таке Агент S? Агент S є революційною відкритою агентною структурою, спеціально розробленою для вирішення трьох основних викликів в автоматизації комп'ютерних завдань: Набуття специфічних знань у галузі: Структура інтелектуально навчається з різних зовнішніх джерел знань та внутрішнього досвіду. Цей подвійний підхід дозволяє їй створити багатий репозиторій специфічних знань у галузі, покращуючи її продуктивність у виконанні завдань. Планування на довгих горизонтах завдань: Агент S використовує планування з підкріпленням досвіду, стратегічний підхід, який полегшує ефективний розподіл та виконання складних завдань. Ця функція значно підвищує її здатність ефективно та результативно управляти кількома підзавданнями. Обробка динамічних, неоднорідних інтерфейсів: Проект представляє Інтерфейс Агент-Комп'ютер (ACI), інноваційне рішення, яке покращує взаємодію між агентами та користувачами. Використовуючи багатомодальні великі мовні моделі (MLLMs), Агент S може безперешкодно орієнтуватися та маніпулювати різноманітними графічними інтерфейсами користувача. Завдяки цим новаторським функціям Агент S надає надійну структуру, яка вирішує складнощі, пов'язані з автоматизацією людської взаємодії з машинами, прокладаючи шлях для численних застосувань у ШІ та за його межами. Хто є творцем Агент S? Хоча концепція Агент S є фундаментально новаторською, конкретна інформація про його творця залишається невідомою. Творець наразі невідомий, що підкреслює або початкову стадію проекту, або стратегічний вибір зберегти засновників у таємниці. Незважаючи на анонімність, акцент залишається на можливостях та потенціалі структури. Хто є інвесторами Агент S? Оскільки Агент S є відносно новим у криптографічній екосистемі, детальна інформація про його інвесторів та фінансових спонсорів не задокументована. Відсутність публічно доступних відомостей про інвестиційні фонди або організації, що підтримують проект, викликає питання щодо його фінансової структури та дорожньої карти розвитку. Розуміння підтримки є критично важливим для оцінки стійкості проекту та потенційного впливу на ринок. Як працює Агент S? В основі Агент S лежить передова технологія, яка дозволяє йому ефективно функціонувати в різних умовах. Його операційна модель побудована навколо кількох ключових функцій: Взаємодія з комп'ютером, подібна до людської: Структура пропонує розширене планування ШІ, прагнучи зробити взаємодії з комп'ютерами більш інтуїтивними. Імітуючи людську поведінку при виконанні завдань, вона обіцяє підвищити досвід користувачів. Наративна пам'ять: Використовується для використання високорівневого досвіду, Агент S використовує наративну пам'ять для відстеження історій завдань, тим самим покращуючи свої процеси прийняття рішень. Епізодична пам'ять: Ця функція надає користувачам покрокові інструкції, дозволяючи структурі пропонувати контекстуальну підтримку в міру виконання завдань. Підтримка OpenACI: Завдяки можливості працювати локально, Агент S дозволяє користувачам зберігати контроль над своїми взаємодіями та робочими процесами, узгоджуючи з децентралізованою етикою Web3. Легка інтеграція з зовнішніми API: Його універсальність і сумісність з різними платформами ШІ забезпечують те, що Агент S може безперешкодно вписатися в існуючі технологічні екосистеми, роблячи його привабливим вибором для розробників та організацій. Ці функціональні можливості колективно сприяють унікальному положенню Агент S у крипто-просторі, оскільки він автоматизує складні, багатоступеневі завдання з мінімальним втручанням людини. У міру розвитку проекту його потенційні застосування в Web3 можуть переосмислити, як відбуваються цифрові взаємодії. Хронологія Агент S Розробка та етапи Агент S можуть бути узагальнені в хронології, яка підкреслює його значні події: 27 вересня 2024 року: Концепція Агент S була представлена в комплексній науковій статті під назвою “Відкрита агентна структура, яка використовує комп'ютери як людина”, що демонструє основи проекту. 10 жовтня 2024 року: Наукова стаття була опублікована на arXiv, пропонуючи детальне дослідження структури та її оцінки продуктивності на основі бенчмарку OSWorld. 12 жовтня 2024 року: Було випущено відеопрезентацію, що надає візуальне уявлення про можливості та особливості Агент S, ще більше залучаючи потенційних користувачів та інвесторів. Ці маркери в хронології не лише ілюструють прогрес Агент S, але й вказують на його прихильність до прозорості та залучення громади. Ключові моменти про Агент S У міру розвитку структури Агент S кілька ключових характеристик виділяються, підкреслюючи її новаторський характер та потенціал: Інноваційна структура: Розроблена для забезпечення інтуїтивного використання комп'ютерів, подібного до людської взаємодії, Агент S пропонує новий підхід до автоматизації завдань. Автономна взаємодія: Здатність автономно взаємодіяти з комп'ютерами через GUI означає стрибок до більш інтелектуальних та ефективних обчислювальних рішень. Автоматизація складних завдань: Завдяки своїй надійній методології він може автоматизувати складні, багатоступеневі завдання, роблячи процеси швидшими та менш схильними до помилок. Безперервне вдосконалення: Механізми навчання дозволяють Агенту S покращуватися на основі минулого досвіду, постійно підвищуючи свою продуктивність та ефективність. Універсальність: Його адаптивність до різних операційних середовищ, таких як OSWorld та WindowsAgentArena, забезпечує його здатність служити широкому спектру застосувань. Оскільки Агент S займає своє місце в ландшафті Web3 та криптовалюти, його потенціал покращити можливості взаємодії та автоматизувати процеси означає значний прогрес у технологіях ШІ. Завдяки своїй інноваційній структурі Агент S є прикладом майбутнього цифрових взаємодій, обіцяючи більш безперешкодний та ефективний досвід для користувачів у різних галузях. Висновок Агент S представляє собою сміливий крок вперед у поєднанні ШІ та Web3, з можливістю переосмислити, як ми взаємодіємо з технологією. Хоча проект все ще на ранніх стадіях, можливості для його застосування є величезними та переконливими. Завдяки своїй комплексній структурі, що вирішує критичні виклики, Агент S прагне вивести автономні взаємодії на передній план цифрового досвіду. У міру того, як ми заглиблюємося в сфери криптовалюти та децентралізації, проекти, подібні до Агент S, безсумнівно, відіграватимуть ключову роль у формуванні майбутнього технологій та співпраці людини з комп'ютером.

539 переглядів усьогоОпубліковано 2025.01.14Оновлено 2025.01.14

Що таке AGENT S

Як купити S

Ласкаво просимо до HTX.com! Ми зробили покупку Sonic (S) простою та зручною. Дотримуйтесь нашої покрокової інструкції, щоб розпочати свою криптовалютну подорож.Крок 1: Створіть обліковий запис на HTXВикористовуйте свою електронну пошту або номер телефону, щоб зареєструвати обліковий запис на HTX безплатно. Пройдіть безпроблемну реєстрацію й отримайте доступ до всіх функцій.ЗареєструватисьКрок 2: Перейдіть до розділу Купити крипту і виберіть спосіб оплатиКредитна/дебетова картка: використовуйте вашу картку Visa або Mastercard, щоб миттєво купити Sonic (S).Баланс: використовуйте кошти з балансу вашого рахунку HTX для безперешкодної торгівлі.Треті особи: ми додали популярні способи оплати, такі як Google Pay та Apple Pay, щоб підвищити зручність.P2P: Торгуйте безпосередньо з іншими користувачами на HTX.Позабіржова торгівля (OTC): ми пропонуємо індивідуальні послуги та конкурентні обмінні курси для трейдерів.Крок 3: Зберігайте свої Sonic (S)Після придбання Sonic (S) збережіть його у своєму обліковому записі на HTX. Крім того, ви можете відправити його в інше місце за допомогою блокчейн-переказу або використовувати його для торгівлі іншими криптовалютами.Крок 4: Торгівля Sonic (S)Легко торгуйте Sonic (S) на спотовому ринку HTX. Просто увійдіть до свого облікового запису, виберіть торгову пару, укладайте угоди та спостерігайте за ними в режимі реального часу. Ми пропонуємо зручний досвід як для початківців, так і для досвідчених трейдерів.

1.3k переглядів усьогоОпубліковано 2025.01.15Оновлено 2025.03.21

Як купити S

Обговорення

Ласкаво просимо до спільноти HTX. Тут ви можете бути в курсі останніх подій розвитку платформи та отримати доступ до професійної ринкової інформації. Нижче представлені думки користувачів щодо ціни S (S).

活动图片