Tsinghua's Prediction 2 Years Ago Is Becoming Global Consensus: Meta and Two Other Major AI Institutions Have Reached the Same Conclusion

marsbitОпубліковано о 2026-04-13Востаннє оновлено о 2026-04-13

Анотація

Summary: In a remarkable validation of Chinese AI research, Meta and METR have independently reached conclusions that align perfectly with the "Density Law" proposed by a Tsinghua University and FaceWall Intelligent team two years ago. Published in Nature Machine Intelligence in late 2025, the law states that the computational power required to achieve a specific level of AI performance halves every 3.5 months. This convergence was starkly evident in April 2026. METR reported that AI capabilities are doubling every 88.6 days, while Meta's new model, Muse Spark, demonstrated it could match the performance of a model from the previous year using less than one-tenth of the training compute. When plotted, the growth curves from all three sources—using different metrics (parameters, compute, task length)—show an almost identical exponential slope. The findings have profound implications: AI inference costs are collapsing faster than anticipated, powerful edge-computing AI is becoming rapidly feasible, and the industry's strategy of simply scaling model size is becoming economically inefficient. The Chinese team, which has been building its "MiniCPM" model series based on this law since 2024, is seen as having a significant two-year lead in practical engineering experience, marking a rare instance where Chinese researchers pioneered a fundamental predictive trend in AI.

【Insight】Too crazy! The AI evolution data recently measured by Meta and METR perfectly aligns with the "Density Law" proposed by a Chinese team two years ago. Silicon Valley suddenly realized that Chinese researchers have been leading this path for two years!

Three of the world's most serious AI research institutions collectively collided in the past week!

On April 3, the American research institution METR quietly updated a technical report, with the core conclusion compressed into one sentence.

AI capabilities double every 88.6 days.

Five days later, on April 8, Meta's Super Intelligence Lab released a new model, Muse Spark, and disclosed an internal training efficiency curve called the scaling ladder, with the conclusion also being one sentence.

To catch up with the performance of Llama 4 Maverick from a year ago, the new model requires less than one-tenth of the training compute.

One measured task duration, the other measured training compute. The two institutions had no interaction, and their research methods had no overlap.

But when the two curves were converted to the same coordinate system, their slopes were almost identical.

At this point, things were already bizarre enough.

Even more bizarre is that this curve was completely drawn by a Chinese team two years ago and even published in a Nature sub-journal.

It's called the Density Law.

Two Years Ago, Someone Drew This Line in Advance

This concept first appeared in a paper called "Densing Law of LLMs".

The authors were a joint team from ModelBest and Tsinghua University, led by Professors Sun Maosong and Liu Zhiyuan, with doctoral student Xiao Chaojun as the first author.

The paper was posted on arXiv in December 2024 and accepted by Nature Machine Intelligence in November 2025.

Paper address: https://arxiv.org/abs/2412.04315

Paper address: https://www.nature.com/articles/s42256-025-01137-0

The core assertion of the paper is just one sentence.

Model intelligence density increases exponentially over time, and the number of parameters required to reach a specific intelligence level halves every 3.5 months.

Back in late 2024, this sounded a bit radical.

At that time, the entire industry was worshipping the scaling law. OpenAI was scaling models, Anthropic was scaling models, Meta was scaling models.

Everyone thought that bigger parameters meant stronger intelligence, and burning GPUs to the extreme was the right way.

But the research team didn't see it that way.

They put all influential open-source foundation models at the time, from Llama-1 all the way to Gemma-2 and MiniCPM-3, a total of 51 models, into the same ruler to measure.

After running five major benchmarks, the result was an almost perfect exponential relationship, with an R² of 0.934.

Considering that LLM evaluation is easily contaminated by data pollution, they retested using a newly constructed contamination-filtered dataset, MMLU-CF. R²=0.953.

Both fits achieved an R² close to 1. Statistically, this is almost impossible to be a coincidence.

In other words, every mainstream open-source model released in these two years, regardless of which team it came from or what architecture it used, fell on the same exponential line of "doubling every 3.5 months".

Up to this point, the story was just "a Chinese team proposed a seemingly radical empirical rule".

What truly made this a "moment" was what happened in the next half year.

Three Institutions, Three Methods, One Slope

Laying out the conclusions from ModelBest, Meta, and METR:

  • ModelBest's Density Law measures "how many parameters are needed for the same intelligence level". The conclusion is that the parameter requirement halves every 3.5 months.
  • Meta's scaling ladder measures "how much training compute is needed for the same intelligence level". The conclusion is that Muse Spark saves an order of magnitude compared to Llama 4 Maverick from a year ago.
  • METR's time horizon report measures "how long a task a model can handle". The conclusion is that the task length doubles every 88.6 days.

Three rulers. Three academic institutions. Three research paths with no overlap whatsoever.

But when all the numbers are converted and viewed in the same coordinate system, the slopes of their curves are almost identical.

The most easily overlooked point about this is that the Density Law was the first proposed among these three. It was nearly two years earlier than Meta's scaling ladder and more than a year earlier than METR's complete modeling.

And when Meta drew that scaling ladder in their early April blog post, they probably didn't realize it themselves. The shape of this graph was almost the same line as the curve on a PPT from an academic conference in Beijing in 2024.

What Kind of Observation Deserves to Be Called a "Law"

In the scientific community, there is an unwritten standard to judge whether an empirical observation qualifies as a "law".

It's not about how beautiful the data is, but whether it holds true across multiple independent measurement systems.

The reason Moore's Law is a law is because the semiconductor industry has verified it over decades from three completely different dimensions: lithography precision, transistor density, and cost per unit of computing power.

The Density Law follows the same path.

It was initially just a fitting curve from a single team. By the time it was accepted by the Nature sub-journal, it could already be reproduced on contamination-filtered datasets. And this month, it was independently verified twice more in Meta's training data and METR's task evaluations.

Viewed in a larger coordinate system, this moment is very much like when electricity first entered New York in the 1880s.

Back then, it was also different inventors, different engineers, different cities, each working on their own power grids. It wasn't until someone plotted the development curves of all the projects on one sheet of paper that people realized. This wasn't a few scattered engineering advances; this was a new era quietly unfolding.

Only this time, it took less than a year from the paper's publication to its verification by global peers.

Three Inferences, Each Rewriting Industry Assumptions

If the Density Law holds, it will rewrite many things simultaneously.

First, inference costs will crash faster than anyone expected.

One inference of the Density Law is that the inference cost for LLMs achieving the same performance roughly halves every 2.6 months.

Today, this rate of decline has already been exceeded by reality.

The latest tracking data from Epoch AI shows that the token price for LLMs achieving Claude 3.5 Sonnet performance level has dropped 400 times in the past year. The fastest decline for the same performance tier reached 900x/year.

The level that GPT-3.5 priced at $20 per million tokens in late 2022, today Mistral Nemo charges only $0.02, 1000 times cheaper, and the model is even stronger.

In retrospect, the prediction in the paper was conservative.

Second, the explosion point for on-device AI is closer than anyone thought.

Multiplying the Density Law by Moore's Law yields an even more exciting number.

According to current estimates, the maximum effective model size that can run on chips at the same price roughly doubles every 88 days.

This number is almost identical to the 88.6 days calculated by METR. Two completely different calculation paths collided after the decimal point.

In the next three to five years, running a current top-tier GPT-level model on an ordinary laptop or even a mobile phone may no longer be science fiction.

Third, the optimal strategy for the large model industry is quietly reversing.

For the past three years, the industry's understanding of the scaling law has remained at "stack parameters, stack data."

But the Density Law offers a counterintuitive judgment. Given the continuous exponential growth in density, any state's strongest model only has an optimal window of a few months.

Throwing all resources into training a larger model, only to be surpassed by a new model half the size three months later, is economically unwise.

The truly sustainable path is to invest resources in improving the density itself. Better architectures, higher quality data, smarter training algorithms.

ModelBest, Has Been Walking Along the Ruler They Drew

It's worth mentioning that the Density Law is not a paper that ended after publication.

ModelBest, which proposed this theory, has been verifying it with their own "Small Cannon" MiniCPM series models for the past two years.

When MiniCPM-1-2.4B was released in February 2024, its benchmark scores could match or exceed Mistral-7B from September 2023. That is, in four months, with 35% of the parameters, it achieved equivalent performance.

This number was directly written into the Nature sub-journal paper as the first empirical case of the Density Law.

Since then, the Small Cannon series has been open-sourced all the way, covering four major directions for parameters below 10B: text, multimodal, speech, and full-modality. This level of open-source completeness domestically, besides Alibaba, only ModelBest has achieved.

So far, the global open-source downloads of the Small Cannon series have exceeded 24 million.

It is not the largest model in the industry. But it is the first team in the industry to implement "density first" as a company methodology.

And when Meta and METR verified the Density Law in their respective ways in April 2026, this Chinese company that started training models using this methodology back in 2024 actually had a two-year lead in engineering experience.

This Time, Chinese Researchers Are at the Starting Point of the Curve

A theoretical framework proposed by a Chinese research team two years ago is being rediscovered, in their own ways, by overseas institutions like Meta and METR, the most serious players.

The weight of this matter may take some time to fully understand.

It is not a "we can do it too" story. It is a "we saw it a bit earlier" story.

There aren't many such moments in the history of science. A judgment doubted in 2024 became the same curve pointed to by multiple independent pieces of evidence in 2026.

This kind of "coincidence" across regions, methods, and institutions has happened a few times in physics, each time marking the end of an old paradigm and the beginning of a new one.

This time, Chinese AI researchers are standing at that starting point.

And that curve is still rising, doubling every 88 days.

References:

The "Density Law"首创 (first proposed) by ModelBest gains recognition from top overseas institutions like Meta

https://arxiv.org/abs/2412.04315

https://www.nature.com/articles/s42256-025-01137-0

https://metr.org/blog/2026-1-29-time-horizon-1-1/

https://ai.meta.com/blog/introducing-muse-spark-msl/

This article is from the WeChat public account "新智元" (New Zhiyuan), edited: 好困 (Hao Kun) 桃子 (Tao Zi)

Пов'язані питання

QWhat is the 'Density Law' proposed by the Chinese research team from Tsinghua University and ModelBest, and what is its core finding?

AThe 'Density Law' is a theory proposed by a joint team from Tsinghua University and ModelBest (面壁智能). Its core finding is that the intelligence density of AI models increases exponentially over time, with the number of parameters required to achieve a specific level of intelligence halving approximately every 3.5 months.

QWhich three independent research institutions recently reached conclusions that align with the Density Law, and what did each one measure?

AThe three institutions are ModelBest (the original proposer), Meta's Super Intelligence Lab, and METR. ModelBest measured the parameter efficiency (parameters needed for a given intelligence level). Meta measured training compute efficiency (compute needed for a given intelligence level). METR measured the expansion of AI capabilities over time (task horizon length doubling every 88.6 days).

QAccording to the article, what are three major implications of the Density Law for the AI industry?

A1. Inference costs are collapsing faster than expected, potentially halving every ~2.6 months. 2. The arrival of powerful on-device AI is much closer than previously thought, as smaller models can achieve performance previously requiring large data centers. 3. The optimal strategy for AI companies is shifting from simply scaling up model size (scaling law) to focusing on improving intelligence density through better architectures, data, and algorithms.

QHow did the MiniCPM model series from ModelBest serve as an early validation of the Density Law?

AThe MiniCPM-1-2.4B model, released in February 2024, achieved performance comparable to the Mistral-7B model from September 2023. This demonstrated that in just four months, a model with only 35% of the parameters could achieve the same level of performance, providing an early empirical case for the Density Law's prediction of rapidly increasing parameter efficiency.

QWhat is the significance of multiple independent institutions arriving at the same conclusion as the Density Law using different methods?

AThis convergence of evidence from independent paths (parameter efficiency, training compute, and capability growth) significantly strengthens the validity of the Density Law. In science, a principle gains the status of a 'law' when it holds across multiple, independent measurement systems, similar to how Moore's Law was validated across different aspects of semiconductor progress. It suggests a fundamental shift in the AI development paradigm is underway.

Пов'язані матеріали

How Many Tokens Away Is Yang Zhilin from the 'Moon Chasing the Light'?

The article explores the intense competition between two leading Chinese AI companies, DeepSeek and Kimi (Moon Dark Side), and the mounting pressure on Yang Zhilin, the founder of Kimi. While DeepSeek re-emerged after 15 months of silence with its powerful V4 model—boasting 1.6 trillion parameters and low-cost, long-context capabilities—Kimi has been focusing on long-context processing and multi-agent systems with its K2.6 model. Yang faces a threefold challenge: technological rivalry, commercialization pressure, and investor expectations. Despite Kimi’s high valuation (reaching $18 billion), its revenue heavily relies on a single product with low paid conversion rates, while DeepSeek’s strategic silence and open-source influence have strengthened its market position and valuation prospects, now targeting over $20 billion. Both companies reflect broader trends in China’s AI ecosystem: Kimi aims for global influence through open-source contributions and agent-based advancements, while DeepSeek prioritizes foundational innovation and hardware independence, notably shifting to Huawei’s chips. Their competition is seen as vital for China’s AI progress, with the gap between top Chinese and U.S. models narrowing to just 2.7% on the Elo rating scale. Ultimately, the article argues that this rivalry, though anxiety-inducing for leaders like Zhilin, is essential for driving innovation and solidifying China’s role in the global AI landscape.

marsbit5 год тому

How Many Tokens Away Is Yang Zhilin from the 'Moon Chasing the Light'?

marsbit5 год тому

TechFlow Intelligence Bureau: ChatGPT Helps Amateur Mathematician Crack 60-Year-Old Problem, CFTC Sues New York Regulator Over Coinbase and Gemini

An amateur mathematician, with the assistance of ChatGPT, has solved a combinatorial mathematics puzzle originally proposed by Hungarian mathematician Paul Erdős in the 1960s. This marks another milestone in AI-aided mathematical research, demonstrating the evolving capabilities of large language models in formal reasoning. In other AI developments, OpenAI introduced a new privacy filter tool for enterprise API usage, automatically screening sensitive data. Meanwhile, the Qwen3.6-27B model achieved 100 tokens per second on a single RTX 5090 GPU using quantization, significantly lowering the cost barrier for local AI deployment. In crypto and Web3, the U.S. CFTC sued New York’s financial regulator, challenging its oversight of Coinbase and Gemini—a first-of-its-kind federal-state regulatory clash. Following a vulnerability, KelpDAO and major DeFi protocols established a recovery fund. Tether froze $344 million in assets linked to Iran’s central bank upon U.S. Treasury request, highlighting the centralized control risks in stablecoins. Separately, Litecoin underwent a 3-hour chain reorganization to undo a privacy-layer exploit. In the U.S., former President Trump invoked the Defense Production Act to address power grid bottlenecks affecting AI data centers and dismissed the entire National Science Board, raising concerns over research independence. A retail trader gained 250% on a $600k Intel options bet amid AI-related speculation. Xiaomi announced its first performance electric vehicle, targeting rivals like Tesla. Meanwhile, iPhone users reported devices automatically reinstalling a hidden app daily, suspected to be MDM-related. A Chinese securities report noted that A-share institutional crowding has reached its second-longest streak since 2007, signaling high valuations and potential style rotation. The day’s developments reflect a dual narrative: AI is enabling unprecedented individual breakthroughs, while centralized power structures—whether governmental or corporate—are becoming more assertive, underscoring that decentralization is as much a political-economic challenge as a technical one.

marsbit6 год тому

TechFlow Intelligence Bureau: ChatGPT Helps Amateur Mathematician Crack 60-Year-Old Problem, CFTC Sues New York Regulator Over Coinbase and Gemini

marsbit6 год тому

Торгівля

Спот
Ф'ючерси

Популярні статті

Що таке $S$

Розуміння SPERO: Комплексний огляд Вступ до SPERO Оскільки ландшафт інновацій продовжує еволюціонувати, виникнення технологій web3 та криптовалютних проектів відіграє ключову роль у формуванні цифрового майбутнього. Один з проектів, який привернув увагу в цій динамічній сфері, — це SPERO, позначений як SPERO,$$s$. Ця стаття має на меті зібрати та представити детальну інформацію про SPERO, щоб допомогти ентузіастам та інвесторам зрозуміти його основи, цілі та інновації в рамках web3 та крипто-сектору. Що таке SPERO,$$s$? SPERO,$$s$ — це унікальний проект у криптопросторі, який прагне використати принципи децентралізації та технології блокчейн для створення екосистеми, що сприяє залученню, корисності та фінансовій інклюзії. Проект розроблений для полегшення взаємодії між користувачами новими способами, надаючи їм інноваційні фінансові рішення та послуги. У своїй основі SPERO,$$s$ прагне надати можливості індивідам, забезпечуючи інструменти та платформи, які покращують користувацький досвід у криптовалютному просторі. Це включає в себе можливість більш гнучких методів транзакцій, сприяння ініціативам, що підтримуються спільнотою, та створення шляхів для фінансових можливостей через децентралізовані додатки (dApps). Основна концепція SPERO,$$s$ обертається навколо інклюзивності, прагнучи зменшити розриви в традиційній фінансовій системі, використовуючи переваги технології блокчейн. Хто є творцем SPERO,$$s$? Особистість творця SPERO,$$s$ залишається дещо невідомою, оскільки є обмежені публічно доступні ресурси, що надають детальну інформацію про його засновників. Ця відсутність прозорості може бути наслідком зобов'язання проекту до децентралізації — етики, яку багато проектів web3 поділяють, ставлячи колективні внески вище за індивідуальне визнання. Зосереджуючи обговорення навколо спільноти та її колективних цілей, SPERO,$$s$ втілює суть наділення без виділення конкретних осіб. Таким чином, розуміння етики та місії SPERO є більш важливим, ніж ідентифікація єдиного творця. Хто є інвесторами SPERO,$$s$? SPERO,$$s$ підтримується різноманітними інвесторами, починаючи від венчурних капіталістів до ангельських інвесторів, які прагнуть сприяти інноваціям у крипто-секторі. Зосередження цих інвесторів зазвичай узгоджується з місією SPERO — пріоритет надається проектам, які обіцяють технологічний прогрес у суспільстві, фінансову інклюзію та децентралізоване управління. Ці інвесторські фонди зазвичай зацікавлені в проектах, які не лише пропонують інноваційні продукти, але й позитивно впливають на спільноту блокчейн та її екосистеми. Підтримка з боку цих інвесторів підкріплює SPERO,$$s$ як значного конкурента в швидко змінюваній сфері крипто-проектів. Як працює SPERO,$$s$? SPERO,$$s$ використовує багатогранну структуру, яка відрізняє його від традиційних криптовалютних проектів. Ось деякі ключові особливості, які підкреслюють його унікальність та інноваційність: Децентралізоване управління: SPERO,$$s$ інтегрує моделі децентралізованого управління, надаючи користувачам можливість активно брати участь у процесах прийняття рішень щодо майбутнього проекту. Цей підхід сприяє відчуттю власності та відповідальності серед членів спільноти. Корисність токена: SPERO,$$s$ використовує свій власний криптовалютний токен, розроблений для виконання різних функцій в екосистемі. Ці токени дозволяють здійснювати транзакції, отримувати винагороди та полегшувати послуги, що пропонуються на платформі, підвищуючи загальну залученість та корисність. Шарова архітектура: Технічна архітектура SPERO,$$s$ підтримує модульність та масштабованість, що дозволяє безперешкодно інтегрувати додаткові функції та додатки в міру розвитку проекту. Ця адаптивність є надзвичайно важливою для збереження актуальності в постійно змінюваному крипто-ландшафті. Залучення спільноти: Проект підкреслює ініціативи, що підтримуються спільнотою, використовуючи механізми, які стимулюють співпрацю та зворотний зв'язок. Підтримуючи сильну спільноту, SPERO,$$s$ може краще задовольняти потреби користувачів та адаптуватися до ринкових тенденцій. Фокус на інклюзію: Пропонуючи низькі комісії за транзакції та зручні інтерфейси, SPERO,$$s$ прагне залучити різноманітну базу користувачів, включаючи осіб, які раніше не брали участі в крипто-просторі. Це зобов'язання до інклюзії узгоджується з його загальною місією наділення через доступність. Хронологія SPERO,$$s$ Розуміння історії проекту надає важливі уявлення про його розвиток та етапи. Нижче наведено пропоновану хронологію, що відображає значні події в еволюції SPERO,$$s$: Етап концептуалізації та ідеації: Початкові ідеї, що стали основою SPERO,$$s$, були сформовані, тісно пов'язані з принципами децентралізації та фокусом на спільноті в індустрії блокчейн. Запуск білого паперу проекту: Після концептуального етапу був випущений комплексний білий папір, що детально описує бачення, цілі та технологічну інфраструктуру SPERO,$$s$, щоб залучити інтерес та зворотний зв'язок від спільноти. Створення спільноти та ранні залучення: Активні зусилля були спрямовані на створення спільноти ранніх прихильників та потенційних інвесторів, що полегшило обговорення цілей проекту та отримання підтримки. Подія генерації токенів: SPERO,$$s$ провів подію генерації токенів (TGE) для розподілу своїх рідних токенів серед ранніх прихильників та встановлення початкової ліквідності в екосистемі. Запуск початкового dApp: Перший децентралізований додаток (dApp), пов'язаний з SPERO,$$s$, став доступним, дозволяючи користувачам взаємодіяти з основними функціями платформи. Постійний розвиток та партнерства: Безперервні оновлення та вдосконалення пропозицій проекту, включаючи стратегічні партнерства з іншими учасниками блокчейн-простору, сформували SPERO,$$s$ у конкурентоспроможного та еволюціонуючого гравця на крипто-ринку. Висновок SPERO,$$s$ є свідченням потенціалу web3 та криптовалют для революціонізації фінансових систем та наділення індивідів. Завдяки зобов'язанню до децентралізованого управління, залучення спільноти та інноваційно спроектованих функцій, він прокладає шлях до більш інклюзивного фінансового ландшафту. Як і з будь-якими інвестиціями в швидко змінюваному крипто-просторі, потенційним інвесторам та користувачам рекомендується ретельно досліджувати та обдумано взаємодіяти з поточними подіями в SPERO,$$s$. Проект демонструє інноваційний дух крипто-індустрії, запрошуючи до подальшого дослідження його численних можливостей. Хоча подорож SPERO,$$s$ ще триває, його основні принципи можуть справді вплинути на майбутнє того, як ми взаємодіємо з технологією, фінансами та один з одним у взаємопов'язаних цифрових екосистемах.

73 переглядів усьогоОпубліковано 2024.12.17Оновлено 2024.12.17

Що таке $S$

Що таке AGENT S

Агент S: Майбутнє автономної взаємодії в Web3 Вступ У постійно змінюваному ландшафті Web3 та криптовалюти інновації постійно переосмислюють, як люди взаємодіють з цифровими платформами. Один з таких новаторських проектів, Агент S, обіцяє революціонізувати взаємодію людини з комп'ютером через свою відкриту агентну структуру. Прокладаючи шлях для автономних взаємодій, Агент S прагне спростити складні завдання, пропонуючи трансформаційні застосування в штучному інтелекті (ШІ). Це детальне дослідження заглиблюється в складності проекту, його унікальні особливості та наслідки для сфери криптовалюти. Що таке Агент S? Агент S є революційною відкритою агентною структурою, спеціально розробленою для вирішення трьох основних викликів в автоматизації комп'ютерних завдань: Набуття специфічних знань у галузі: Структура інтелектуально навчається з різних зовнішніх джерел знань та внутрішнього досвіду. Цей подвійний підхід дозволяє їй створити багатий репозиторій специфічних знань у галузі, покращуючи її продуктивність у виконанні завдань. Планування на довгих горизонтах завдань: Агент S використовує планування з підкріпленням досвіду, стратегічний підхід, який полегшує ефективний розподіл та виконання складних завдань. Ця функція значно підвищує її здатність ефективно та результативно управляти кількома підзавданнями. Обробка динамічних, неоднорідних інтерфейсів: Проект представляє Інтерфейс Агент-Комп'ютер (ACI), інноваційне рішення, яке покращує взаємодію між агентами та користувачами. Використовуючи багатомодальні великі мовні моделі (MLLMs), Агент S може безперешкодно орієнтуватися та маніпулювати різноманітними графічними інтерфейсами користувача. Завдяки цим новаторським функціям Агент S надає надійну структуру, яка вирішує складнощі, пов'язані з автоматизацією людської взаємодії з машинами, прокладаючи шлях для численних застосувань у ШІ та за його межами. Хто є творцем Агент S? Хоча концепція Агент S є фундаментально новаторською, конкретна інформація про його творця залишається невідомою. Творець наразі невідомий, що підкреслює або початкову стадію проекту, або стратегічний вибір зберегти засновників у таємниці. Незважаючи на анонімність, акцент залишається на можливостях та потенціалі структури. Хто є інвесторами Агент S? Оскільки Агент S є відносно новим у криптографічній екосистемі, детальна інформація про його інвесторів та фінансових спонсорів не задокументована. Відсутність публічно доступних відомостей про інвестиційні фонди або організації, що підтримують проект, викликає питання щодо його фінансової структури та дорожньої карти розвитку. Розуміння підтримки є критично важливим для оцінки стійкості проекту та потенційного впливу на ринок. Як працює Агент S? В основі Агент S лежить передова технологія, яка дозволяє йому ефективно функціонувати в різних умовах. Його операційна модель побудована навколо кількох ключових функцій: Взаємодія з комп'ютером, подібна до людської: Структура пропонує розширене планування ШІ, прагнучи зробити взаємодії з комп'ютерами більш інтуїтивними. Імітуючи людську поведінку при виконанні завдань, вона обіцяє підвищити досвід користувачів. Наративна пам'ять: Використовується для використання високорівневого досвіду, Агент S використовує наративну пам'ять для відстеження історій завдань, тим самим покращуючи свої процеси прийняття рішень. Епізодична пам'ять: Ця функція надає користувачам покрокові інструкції, дозволяючи структурі пропонувати контекстуальну підтримку в міру виконання завдань. Підтримка OpenACI: Завдяки можливості працювати локально, Агент S дозволяє користувачам зберігати контроль над своїми взаємодіями та робочими процесами, узгоджуючи з децентралізованою етикою Web3. Легка інтеграція з зовнішніми API: Його універсальність і сумісність з різними платформами ШІ забезпечують те, що Агент S може безперешкодно вписатися в існуючі технологічні екосистеми, роблячи його привабливим вибором для розробників та організацій. Ці функціональні можливості колективно сприяють унікальному положенню Агент S у крипто-просторі, оскільки він автоматизує складні, багатоступеневі завдання з мінімальним втручанням людини. У міру розвитку проекту його потенційні застосування в Web3 можуть переосмислити, як відбуваються цифрові взаємодії. Хронологія Агент S Розробка та етапи Агент S можуть бути узагальнені в хронології, яка підкреслює його значні події: 27 вересня 2024 року: Концепція Агент S була представлена в комплексній науковій статті під назвою “Відкрита агентна структура, яка використовує комп'ютери як людина”, що демонструє основи проекту. 10 жовтня 2024 року: Наукова стаття була опублікована на arXiv, пропонуючи детальне дослідження структури та її оцінки продуктивності на основі бенчмарку OSWorld. 12 жовтня 2024 року: Було випущено відеопрезентацію, що надає візуальне уявлення про можливості та особливості Агент S, ще більше залучаючи потенційних користувачів та інвесторів. Ці маркери в хронології не лише ілюструють прогрес Агент S, але й вказують на його прихильність до прозорості та залучення громади. Ключові моменти про Агент S У міру розвитку структури Агент S кілька ключових характеристик виділяються, підкреслюючи її новаторський характер та потенціал: Інноваційна структура: Розроблена для забезпечення інтуїтивного використання комп'ютерів, подібного до людської взаємодії, Агент S пропонує новий підхід до автоматизації завдань. Автономна взаємодія: Здатність автономно взаємодіяти з комп'ютерами через GUI означає стрибок до більш інтелектуальних та ефективних обчислювальних рішень. Автоматизація складних завдань: Завдяки своїй надійній методології він може автоматизувати складні, багатоступеневі завдання, роблячи процеси швидшими та менш схильними до помилок. Безперервне вдосконалення: Механізми навчання дозволяють Агенту S покращуватися на основі минулого досвіду, постійно підвищуючи свою продуктивність та ефективність. Універсальність: Його адаптивність до різних операційних середовищ, таких як OSWorld та WindowsAgentArena, забезпечує його здатність служити широкому спектру застосувань. Оскільки Агент S займає своє місце в ландшафті Web3 та криптовалюти, його потенціал покращити можливості взаємодії та автоматизувати процеси означає значний прогрес у технологіях ШІ. Завдяки своїй інноваційній структурі Агент S є прикладом майбутнього цифрових взаємодій, обіцяючи більш безперешкодний та ефективний досвід для користувачів у різних галузях. Висновок Агент S представляє собою сміливий крок вперед у поєднанні ШІ та Web3, з можливістю переосмислити, як ми взаємодіємо з технологією. Хоча проект все ще на ранніх стадіях, можливості для його застосування є величезними та переконливими. Завдяки своїй комплексній структурі, що вирішує критичні виклики, Агент S прагне вивести автономні взаємодії на передній план цифрового досвіду. У міру того, як ми заглиблюємося в сфери криптовалюти та децентралізації, проекти, подібні до Агент S, безсумнівно, відіграватимуть ключову роль у формуванні майбутнього технологій та співпраці людини з комп'ютером.

539 переглядів усьогоОпубліковано 2025.01.14Оновлено 2025.01.14

Що таке AGENT S

Як купити S

Ласкаво просимо до HTX.com! Ми зробили покупку Sonic (S) простою та зручною. Дотримуйтесь нашої покрокової інструкції, щоб розпочати свою криптовалютну подорож.Крок 1: Створіть обліковий запис на HTXВикористовуйте свою електронну пошту або номер телефону, щоб зареєструвати обліковий запис на HTX безплатно. Пройдіть безпроблемну реєстрацію й отримайте доступ до всіх функцій.ЗареєструватисьКрок 2: Перейдіть до розділу Купити крипту і виберіть спосіб оплатиКредитна/дебетова картка: використовуйте вашу картку Visa або Mastercard, щоб миттєво купити Sonic (S).Баланс: використовуйте кошти з балансу вашого рахунку HTX для безперешкодної торгівлі.Треті особи: ми додали популярні способи оплати, такі як Google Pay та Apple Pay, щоб підвищити зручність.P2P: Торгуйте безпосередньо з іншими користувачами на HTX.Позабіржова торгівля (OTC): ми пропонуємо індивідуальні послуги та конкурентні обмінні курси для трейдерів.Крок 3: Зберігайте свої Sonic (S)Після придбання Sonic (S) збережіть його у своєму обліковому записі на HTX. Крім того, ви можете відправити його в інше місце за допомогою блокчейн-переказу або використовувати його для торгівлі іншими криптовалютами.Крок 4: Торгівля Sonic (S)Легко торгуйте Sonic (S) на спотовому ринку HTX. Просто увійдіть до свого облікового запису, виберіть торгову пару, укладайте угоди та спостерігайте за ними в режимі реального часу. Ми пропонуємо зручний досвід як для початківців, так і для досвідчених трейдерів.

1.3k переглядів усьогоОпубліковано 2025.01.15Оновлено 2025.03.21

Як купити S

Обговорення

Ласкаво просимо до спільноти HTX. Тут ви можете бути в курсі останніх подій розвитку платформи та отримати доступ до професійної ринкової інформації. Нижче представлені думки користувачів щодо ціни S (S).

活动图片