Tsinghua's Prediction 2 Years Ago Is Becoming Global Consensus: Meta and Two Other Major AI Institutions Have Reached the Same Conclusion

marsbitPublicado em 2026-04-13Última atualização em 2026-04-13

Resumo

Summary: In a remarkable validation of Chinese AI research, Meta and METR have independently reached conclusions that align perfectly with the "Density Law" proposed by a Tsinghua University and FaceWall Intelligent team two years ago. Published in Nature Machine Intelligence in late 2025, the law states that the computational power required to achieve a specific level of AI performance halves every 3.5 months. This convergence was starkly evident in April 2026. METR reported that AI capabilities are doubling every 88.6 days, while Meta's new model, Muse Spark, demonstrated it could match the performance of a model from the previous year using less than one-tenth of the training compute. When plotted, the growth curves from all three sources—using different metrics (parameters, compute, task length)—show an almost identical exponential slope. The findings have profound implications: AI inference costs are collapsing faster than anticipated, powerful edge-computing AI is becoming rapidly feasible, and the industry's strategy of simply scaling model size is becoming economically inefficient. The Chinese team, which has been building its "MiniCPM" model series based on this law since 2024, is seen as having a significant two-year lead in practical engineering experience, marking a rare instance where Chinese researchers pioneered a fundamental predictive trend in AI.

【Insight】Too crazy! The AI evolution data recently measured by Meta and METR perfectly aligns with the "Density Law" proposed by a Chinese team two years ago. Silicon Valley suddenly realized that Chinese researchers have been leading this path for two years!

Three of the world's most serious AI research institutions collectively collided in the past week!

On April 3, the American research institution METR quietly updated a technical report, with the core conclusion compressed into one sentence.

AI capabilities double every 88.6 days.

Five days later, on April 8, Meta's Super Intelligence Lab released a new model, Muse Spark, and disclosed an internal training efficiency curve called the scaling ladder, with the conclusion also being one sentence.

To catch up with the performance of Llama 4 Maverick from a year ago, the new model requires less than one-tenth of the training compute.

One measured task duration, the other measured training compute. The two institutions had no interaction, and their research methods had no overlap.

But when the two curves were converted to the same coordinate system, their slopes were almost identical.

At this point, things were already bizarre enough.

Even more bizarre is that this curve was completely drawn by a Chinese team two years ago and even published in a Nature sub-journal.

It's called the Density Law.

Two Years Ago, Someone Drew This Line in Advance

This concept first appeared in a paper called "Densing Law of LLMs".

The authors were a joint team from ModelBest and Tsinghua University, led by Professors Sun Maosong and Liu Zhiyuan, with doctoral student Xiao Chaojun as the first author.

The paper was posted on arXiv in December 2024 and accepted by Nature Machine Intelligence in November 2025.

Paper address: https://arxiv.org/abs/2412.04315

Paper address: https://www.nature.com/articles/s42256-025-01137-0

The core assertion of the paper is just one sentence.

Model intelligence density increases exponentially over time, and the number of parameters required to reach a specific intelligence level halves every 3.5 months.

Back in late 2024, this sounded a bit radical.

At that time, the entire industry was worshipping the scaling law. OpenAI was scaling models, Anthropic was scaling models, Meta was scaling models.

Everyone thought that bigger parameters meant stronger intelligence, and burning GPUs to the extreme was the right way.

But the research team didn't see it that way.

They put all influential open-source foundation models at the time, from Llama-1 all the way to Gemma-2 and MiniCPM-3, a total of 51 models, into the same ruler to measure.

After running five major benchmarks, the result was an almost perfect exponential relationship, with an R² of 0.934.

Considering that LLM evaluation is easily contaminated by data pollution, they retested using a newly constructed contamination-filtered dataset, MMLU-CF. R²=0.953.

Both fits achieved an R² close to 1. Statistically, this is almost impossible to be a coincidence.

In other words, every mainstream open-source model released in these two years, regardless of which team it came from or what architecture it used, fell on the same exponential line of "doubling every 3.5 months".

Up to this point, the story was just "a Chinese team proposed a seemingly radical empirical rule".

What truly made this a "moment" was what happened in the next half year.

Three Institutions, Three Methods, One Slope

Laying out the conclusions from ModelBest, Meta, and METR:

  • ModelBest's Density Law measures "how many parameters are needed for the same intelligence level". The conclusion is that the parameter requirement halves every 3.5 months.
  • Meta's scaling ladder measures "how much training compute is needed for the same intelligence level". The conclusion is that Muse Spark saves an order of magnitude compared to Llama 4 Maverick from a year ago.
  • METR's time horizon report measures "how long a task a model can handle". The conclusion is that the task length doubles every 88.6 days.

Three rulers. Three academic institutions. Three research paths with no overlap whatsoever.

But when all the numbers are converted and viewed in the same coordinate system, the slopes of their curves are almost identical.

The most easily overlooked point about this is that the Density Law was the first proposed among these three. It was nearly two years earlier than Meta's scaling ladder and more than a year earlier than METR's complete modeling.

And when Meta drew that scaling ladder in their early April blog post, they probably didn't realize it themselves. The shape of this graph was almost the same line as the curve on a PPT from an academic conference in Beijing in 2024.

What Kind of Observation Deserves to Be Called a "Law"

In the scientific community, there is an unwritten standard to judge whether an empirical observation qualifies as a "law".

It's not about how beautiful the data is, but whether it holds true across multiple independent measurement systems.

The reason Moore's Law is a law is because the semiconductor industry has verified it over decades from three completely different dimensions: lithography precision, transistor density, and cost per unit of computing power.

The Density Law follows the same path.

It was initially just a fitting curve from a single team. By the time it was accepted by the Nature sub-journal, it could already be reproduced on contamination-filtered datasets. And this month, it was independently verified twice more in Meta's training data and METR's task evaluations.

Viewed in a larger coordinate system, this moment is very much like when electricity first entered New York in the 1880s.

Back then, it was also different inventors, different engineers, different cities, each working on their own power grids. It wasn't until someone plotted the development curves of all the projects on one sheet of paper that people realized. This wasn't a few scattered engineering advances; this was a new era quietly unfolding.

Only this time, it took less than a year from the paper's publication to its verification by global peers.

Three Inferences, Each Rewriting Industry Assumptions

If the Density Law holds, it will rewrite many things simultaneously.

First, inference costs will crash faster than anyone expected.

One inference of the Density Law is that the inference cost for LLMs achieving the same performance roughly halves every 2.6 months.

Today, this rate of decline has already been exceeded by reality.

The latest tracking data from Epoch AI shows that the token price for LLMs achieving Claude 3.5 Sonnet performance level has dropped 400 times in the past year. The fastest decline for the same performance tier reached 900x/year.

The level that GPT-3.5 priced at $20 per million tokens in late 2022, today Mistral Nemo charges only $0.02, 1000 times cheaper, and the model is even stronger.

In retrospect, the prediction in the paper was conservative.

Second, the explosion point for on-device AI is closer than anyone thought.

Multiplying the Density Law by Moore's Law yields an even more exciting number.

According to current estimates, the maximum effective model size that can run on chips at the same price roughly doubles every 88 days.

This number is almost identical to the 88.6 days calculated by METR. Two completely different calculation paths collided after the decimal point.

In the next three to five years, running a current top-tier GPT-level model on an ordinary laptop or even a mobile phone may no longer be science fiction.

Third, the optimal strategy for the large model industry is quietly reversing.

For the past three years, the industry's understanding of the scaling law has remained at "stack parameters, stack data."

But the Density Law offers a counterintuitive judgment. Given the continuous exponential growth in density, any state's strongest model only has an optimal window of a few months.

Throwing all resources into training a larger model, only to be surpassed by a new model half the size three months later, is economically unwise.

The truly sustainable path is to invest resources in improving the density itself. Better architectures, higher quality data, smarter training algorithms.

ModelBest, Has Been Walking Along the Ruler They Drew

It's worth mentioning that the Density Law is not a paper that ended after publication.

ModelBest, which proposed this theory, has been verifying it with their own "Small Cannon" MiniCPM series models for the past two years.

When MiniCPM-1-2.4B was released in February 2024, its benchmark scores could match or exceed Mistral-7B from September 2023. That is, in four months, with 35% of the parameters, it achieved equivalent performance.

This number was directly written into the Nature sub-journal paper as the first empirical case of the Density Law.

Since then, the Small Cannon series has been open-sourced all the way, covering four major directions for parameters below 10B: text, multimodal, speech, and full-modality. This level of open-source completeness domestically, besides Alibaba, only ModelBest has achieved.

So far, the global open-source downloads of the Small Cannon series have exceeded 24 million.

It is not the largest model in the industry. But it is the first team in the industry to implement "density first" as a company methodology.

And when Meta and METR verified the Density Law in their respective ways in April 2026, this Chinese company that started training models using this methodology back in 2024 actually had a two-year lead in engineering experience.

This Time, Chinese Researchers Are at the Starting Point of the Curve

A theoretical framework proposed by a Chinese research team two years ago is being rediscovered, in their own ways, by overseas institutions like Meta and METR, the most serious players.

The weight of this matter may take some time to fully understand.

It is not a "we can do it too" story. It is a "we saw it a bit earlier" story.

There aren't many such moments in the history of science. A judgment doubted in 2024 became the same curve pointed to by multiple independent pieces of evidence in 2026.

This kind of "coincidence" across regions, methods, and institutions has happened a few times in physics, each time marking the end of an old paradigm and the beginning of a new one.

This time, Chinese AI researchers are standing at that starting point.

And that curve is still rising, doubling every 88 days.

References:

The "Density Law"首创 (first proposed) by ModelBest gains recognition from top overseas institutions like Meta

https://arxiv.org/abs/2412.04315

https://www.nature.com/articles/s42256-025-01137-0

https://metr.org/blog/2026-1-29-time-horizon-1-1/

https://ai.meta.com/blog/introducing-muse-spark-msl/

This article is from the WeChat public account "新智元" (New Zhiyuan), edited: 好困 (Hao Kun) 桃子 (Tao Zi)

Perguntas relacionadas

QWhat is the 'Density Law' proposed by the Chinese research team from Tsinghua University and ModelBest, and what is its core finding?

AThe 'Density Law' is a theory proposed by a joint team from Tsinghua University and ModelBest (面壁智能). Its core finding is that the intelligence density of AI models increases exponentially over time, with the number of parameters required to achieve a specific level of intelligence halving approximately every 3.5 months.

QWhich three independent research institutions recently reached conclusions that align with the Density Law, and what did each one measure?

AThe three institutions are ModelBest (the original proposer), Meta's Super Intelligence Lab, and METR. ModelBest measured the parameter efficiency (parameters needed for a given intelligence level). Meta measured training compute efficiency (compute needed for a given intelligence level). METR measured the expansion of AI capabilities over time (task horizon length doubling every 88.6 days).

QAccording to the article, what are three major implications of the Density Law for the AI industry?

A1. Inference costs are collapsing faster than expected, potentially halving every ~2.6 months. 2. The arrival of powerful on-device AI is much closer than previously thought, as smaller models can achieve performance previously requiring large data centers. 3. The optimal strategy for AI companies is shifting from simply scaling up model size (scaling law) to focusing on improving intelligence density through better architectures, data, and algorithms.

QHow did the MiniCPM model series from ModelBest serve as an early validation of the Density Law?

AThe MiniCPM-1-2.4B model, released in February 2024, achieved performance comparable to the Mistral-7B model from September 2023. This demonstrated that in just four months, a model with only 35% of the parameters could achieve the same level of performance, providing an early empirical case for the Density Law's prediction of rapidly increasing parameter efficiency.

QWhat is the significance of multiple independent institutions arriving at the same conclusion as the Density Law using different methods?

AThis convergence of evidence from independent paths (parameter efficiency, training compute, and capability growth) significantly strengthens the validity of the Density Law. In science, a principle gains the status of a 'law' when it holds across multiple, independent measurement systems, similar to how Moore's Law was validated across different aspects of semiconductor progress. It suggests a fundamental shift in the AI development paradigm is underway.

Leituras Relacionadas

Trading

Spot
Futuros

Artigos em Destaque

O que é $S$

Compreender o SPERO: Uma Visão Abrangente Introdução ao SPERO À medida que o panorama da inovação continua a evoluir, o surgimento de tecnologias web3 e projetos de criptomoeda desempenha um papel fundamental na formação do futuro digital. Um projeto que tem atraído atenção neste campo dinâmico é o SPERO, denotado como SPERO,$$s$. Este artigo tem como objetivo reunir e apresentar informações detalhadas sobre o SPERO, para ajudar entusiastas e investidores a compreender as suas bases, objetivos e inovações nos domínios web3 e cripto. O que é o SPERO,$$s$? O SPERO,$$s$ é um projeto único dentro do espaço cripto que procura aproveitar os princípios da descentralização e da tecnologia blockchain para criar um ecossistema que promove o envolvimento, a utilidade e a inclusão financeira. O projeto é concebido para facilitar interações peer-to-peer de novas maneiras, proporcionando aos utilizadores soluções e serviços financeiros inovadores. No seu núcleo, o SPERO,$$s$ visa capacitar indivíduos ao fornecer ferramentas e plataformas que melhoram a experiência do utilizador no espaço das criptomoedas. Isso inclui a possibilidade de métodos de transação mais flexíveis, a promoção de iniciativas impulsionadas pela comunidade e a criação de caminhos para oportunidades financeiras através de aplicações descentralizadas (dApps). A visão subjacente do SPERO,$$s$ gira em torno da inclusão, visando fechar lacunas dentro das finanças tradicionais enquanto aproveita os benefícios da tecnologia blockchain. Quem é o Criador do SPERO,$$s$? A identidade do criador do SPERO,$$s$ permanece algo obscura, uma vez que existem recursos publicamente disponíveis limitados que fornecem informações detalhadas sobre o(s) seu(s) fundador(es). Esta falta de transparência pode resultar do compromisso do projeto com a descentralização—uma ética que muitos projetos web3 partilham, priorizando contribuições coletivas em vez de reconhecimento individual. Ao centrar as discussões em torno da comunidade e dos seus objetivos coletivos, o SPERO,$$s$ incorpora a essência do empoderamento sem destacar indivíduos específicos. Assim, compreender a ética e a missão do SPERO é mais importante do que identificar um criador singular. Quem são os Investidores do SPERO,$$s$? O SPERO,$$s$ é apoiado por uma diversidade de investidores que vão desde capitalistas de risco a investidores-anjo dedicados a promover a inovação no setor cripto. O foco desses investidores geralmente alinha-se com a missão do SPERO—priorizando projetos que prometem avanço tecnológico social, inclusão financeira e governança descentralizada. Essas fundações de investidores estão tipicamente interessadas em projetos que não apenas oferecem produtos inovadores, mas que também contribuem positivamente para a comunidade blockchain e os seus ecossistemas. O apoio desses investidores reforça o SPERO,$$s$ como um concorrente notável no domínio em rápida evolução dos projetos cripto. Como Funciona o SPERO,$$s$? O SPERO,$$s$ emprega uma estrutura multifacetada que o distingue de projetos de criptomoeda convencionais. Aqui estão algumas das características-chave que sublinham a sua singularidade e inovação: Governança Descentralizada: O SPERO,$$s$ integra modelos de governança descentralizada, capacitando os utilizadores a participar ativamente nos processos de tomada de decisão sobre o futuro do projeto. Esta abordagem promove um sentido de propriedade e responsabilidade entre os membros da comunidade. Utilidade do Token: O SPERO,$$s$ utiliza o seu próprio token de criptomoeda, concebido para servir várias funções dentro do ecossistema. Esses tokens permitem transações, recompensas e a facilitação de serviços oferecidos na plataforma, melhorando o envolvimento e a utilidade gerais. Arquitetura em Camadas: A arquitetura técnica do SPERO,$$s$ suporta modularidade e escalabilidade, permitindo a integração contínua de funcionalidades e aplicações adicionais à medida que o projeto evolui. Esta adaptabilidade é fundamental para manter a relevância no panorama cripto em constante mudança. Envolvimento da Comunidade: O projeto enfatiza iniciativas impulsionadas pela comunidade, empregando mecanismos que incentivam a colaboração e o feedback. Ao nutrir uma comunidade forte, o SPERO,$$s$ pode melhor atender às necessidades dos utilizadores e adaptar-se às tendências do mercado. Foco na Inclusão: Ao oferecer taxas de transação baixas e interfaces amigáveis, o SPERO,$$s$ visa atrair uma base de utilizadores diversificada, incluindo indivíduos que anteriormente podem não ter participado no espaço cripto. Este compromisso com a inclusão alinha-se com a sua missão abrangente de empoderamento através da acessibilidade. Cronologia do SPERO,$$s$ Compreender a história de um projeto fornece insights cruciais sobre a sua trajetória de desenvolvimento e marcos. Abaixo está uma cronologia sugerida que mapeia eventos significativos na evolução do SPERO,$$s$: Fase de Conceituação e Ideação: As ideias iniciais que formam a base do SPERO,$$s$ foram concebidas, alinhando-se de perto com os princípios de descentralização e foco na comunidade dentro da indústria blockchain. Lançamento do Whitepaper do Projeto: Após a fase conceitual, um whitepaper abrangente detalhando a visão, os objetivos e a infraestrutura tecnológica do SPERO,$$s$ foi lançado para atrair o interesse e o feedback da comunidade. Construção da Comunidade e Primeiros Envolvimentos: Esforços ativos de divulgação foram feitos para construir uma comunidade de primeiros adotantes e investidores potenciais, facilitando discussões em torno dos objetivos do projeto e angariando apoio. Evento de Geração de Tokens: O SPERO,$$s$ realizou um evento de geração de tokens (TGE) para distribuir os seus tokens nativos a apoiantes iniciais e estabelecer liquidez inicial dentro do ecossistema. Lançamento da dApp Inicial: A primeira aplicação descentralizada (dApp) associada ao SPERO,$$s$ foi lançada, permitindo que os utilizadores interagissem com as funcionalidades principais da plataforma. Desenvolvimento Contínuo e Parcerias: Atualizações e melhorias contínuas nas ofertas do projeto, incluindo parcerias estratégicas com outros players no espaço blockchain, moldaram o SPERO,$$s$ em um jogador competitivo e em evolução no mercado cripto. Conclusão O SPERO,$$s$ é um testemunho do potencial do web3 e das criptomoedas para revolucionar os sistemas financeiros e capacitar indivíduos. Com um compromisso com a governança descentralizada, o envolvimento da comunidade e funcionalidades inovadoras, abre caminho para um panorama financeiro mais inclusivo. Como em qualquer investimento no espaço cripto em rápida evolução, potenciais investidores e utilizadores são incentivados a pesquisar minuciosamente e a envolver-se de forma ponderada com os desenvolvimentos em curso dentro do SPERO,$$s$. O projeto demonstra o espírito inovador da indústria cripto, convidando a uma exploração mais aprofundada das suas inúmeras possibilidades. Embora a jornada do SPERO,$$s$ ainda esteja a desenrolar-se, os seus princípios fundamentais podem, de facto, influenciar o futuro de como interagimos com a tecnologia, as finanças e uns com os outros em ecossistemas digitais interconectados.

69 Visualizações TotaisPublicado em {updateTime}Atualizado em 2024.12.17

O que é $S$

O que é AGENT S

Agent S: O Futuro da Interação Autónoma no Web3 Introdução No panorama em constante evolução do Web3 e das criptomoedas, as inovações estão constantemente a redefinir a forma como os indivíduos interagem com plataformas digitais. Um projeto pioneiro, o Agent S, promete revolucionar a interação humano-computador através do seu framework aberto e agente. Ao abrir caminho para interações autónomas, o Agent S visa simplificar tarefas complexas, oferecendo aplicações transformadoras em inteligência artificial (IA). Esta exploração detalhada irá aprofundar-se nas complexidades do projeto, nas suas características únicas e nas implicações para o domínio das criptomoedas. O que é o Agent S? O Agent S é um framework aberto e agente, especificamente concebido para abordar três desafios fundamentais na automação de tarefas computacionais: Aquisição de Conhecimento Específico de Domínio: O framework aprende inteligentemente a partir de várias fontes de conhecimento externas e experiências internas. Esta abordagem dupla capacita-o a construir um rico repositório de conhecimento específico de domínio, melhorando o seu desempenho na execução de tarefas. Planeamento ao Longo de Longos Horizontes de Tarefas: O Agent S emprega planeamento hierárquico aumentado por experiência, uma abordagem estratégica que facilita a decomposição e execução eficientes de tarefas intrincadas. Esta característica melhora significativamente a sua capacidade de gerir múltiplas subtarefas de forma eficiente e eficaz. Gestão de Interfaces Dinâmicas e Não Uniformes: O projeto introduz a Interface Agente-Computador (ACI), uma solução inovadora que melhora a interação entre agentes e utilizadores. Utilizando Modelos de Linguagem Multimodais de Grande Escala (MLLMs), o Agent S pode navegar e manipular diversas interfaces gráficas de utilizador de forma fluida. Através destas características pioneiras, o Agent S fornece um framework robusto que aborda as complexidades envolvidas na automação da interação humana com máquinas, preparando o terreno para uma infinidade de aplicações em IA e além. Quem é o Criador do Agent S? Embora o conceito de Agent S seja fundamentalmente inovador, informações específicas sobre o seu criador permanecem elusivas. O criador é atualmente desconhecido, o que destaca ou o estágio nascente do projeto ou a escolha estratégica de manter os membros fundadores em anonimato. Independentemente da anonimidade, o foco permanece nas capacidades e no potencial do framework. Quem são os Investidores do Agent S? Como o Agent S é relativamente novo no ecossistema criptográfico, informações detalhadas sobre os seus investidores e financiadores não estão explicitamente documentadas. A falta de informações disponíveis publicamente sobre as fundações de investimento ou organizações que apoiam o projeto levanta questões sobre a sua estrutura de financiamento e roteiro de desenvolvimento. Compreender o apoio é crucial para avaliar a sustentabilidade do projeto e o seu impacto potencial no mercado. Como Funciona o Agent S? No núcleo do Agent S reside uma tecnologia de ponta que lhe permite funcionar eficazmente em diversos ambientes. O seu modelo operacional é construído em torno de várias características-chave: Interação Humano-Computador Semelhante: O framework oferece planeamento avançado em IA, esforçando-se para tornar as interações com computadores mais intuitivas. Ao imitar o comportamento humano na execução de tarefas, promete elevar as experiências dos utilizadores. Memória Narrativa: Utilizada para aproveitar experiências de alto nível, o Agent S utiliza memória narrativa para acompanhar os históricos de tarefas, melhorando assim os seus processos de tomada de decisão. Memória Episódica: Esta característica fornece aos utilizadores orientações passo a passo, permitindo que o framework ofereça suporte contextual à medida que as tarefas se desenrolam. Suporte para OpenACI: Com a capacidade de funcionar localmente, o Agent S permite que os utilizadores mantenham o controlo sobre as suas interações e fluxos de trabalho, alinhando-se com a ética descentralizada do Web3. Fácil Integração com APIs Externas: A sua versatilidade e compatibilidade com várias plataformas de IA garantem que o Agent S possa integrar-se perfeitamente em ecossistemas tecnológicos existentes, tornando-o uma escolha apelativa para desenvolvedores e organizações. Estas funcionalidades contribuem coletivamente para a posição única do Agent S no espaço cripto, à medida que automatiza tarefas complexas e em múltiplos passos com mínima intervenção humana. À medida que o projeto evolui, as suas potenciais aplicações no Web3 podem redefinir a forma como as interações digitais se desenrolam. Cronologia do Agent S O desenvolvimento e os marcos do Agent S podem ser encapsulados numa cronologia que destaca os seus eventos significativos: 27 de Setembro de 2024: O conceito de Agent S foi lançado num artigo de pesquisa abrangente intitulado “Um Framework Agente Aberto que Usa Computadores como um Humano”, mostrando a base para o projeto. 10 de Outubro de 2024: O artigo de pesquisa foi disponibilizado publicamente no arXiv, oferecendo uma exploração aprofundada do framework e da sua avaliação de desempenho com base no benchmark OSWorld. 12 de Outubro de 2024: Uma apresentação em vídeo foi lançada, proporcionando uma visão visual das capacidades e características do Agent S, envolvendo ainda mais potenciais utilizadores e investidores. Estes marcos na cronologia não apenas ilustram o progresso do Agent S, mas também indicam o seu compromisso com a transparência e o envolvimento da comunidade. Pontos-Chave Sobre o Agent S À medida que o framework Agent S continua a evoluir, várias características-chave destacam-se, sublinhando a sua natureza inovadora e potencial: Framework Inovador: Concebido para proporcionar um uso intuitivo de computadores semelhante à interação humana, o Agent S traz uma abordagem nova à automação de tarefas. Interação Autónoma: A capacidade de interagir autonomamente com computadores através de GUI significa um avanço em direção a soluções computacionais mais inteligentes e eficientes. Automação de Tarefas Complexas: Com a sua metodologia robusta, pode automatizar tarefas complexas e em múltiplos passos, tornando os processos mais rápidos e menos propensos a erros. Melhoria Contínua: Os mecanismos de aprendizagem permitem que o Agent S melhore a partir de experiências passadas, aprimorando continuamente o seu desempenho e eficácia. Versatilidade: A sua adaptabilidade em diferentes ambientes operacionais, como OSWorld e WindowsAgentArena, garante que pode servir uma ampla gama de aplicações. À medida que o Agent S se posiciona no panorama do Web3 e das criptomoedas, o seu potencial para melhorar as capacidades de interação e automatizar processos significa um avanço significativo nas tecnologias de IA. Através do seu framework inovador, o Agent S exemplifica o futuro das interações digitais, prometendo uma experiência mais fluida e eficiente para os utilizadores em diversas indústrias. Conclusão O Agent S representa um ousado avanço na união da IA e do Web3, com a capacidade de redefinir a forma como interagimos com a tecnologia. Embora ainda esteja nas suas fases iniciais, as possibilidades para a sua aplicação são vastas e cativantes. Através do seu framework abrangente que aborda desafios críticos, o Agent S visa trazer interações autónomas para o primeiro plano da experiência digital. À medida que avançamos mais profundamente nos domínios das criptomoedas e da descentralização, projetos como o Agent S desempenharão, sem dúvida, um papel crucial na formação do futuro da tecnologia e da colaboração humano-computador.

529 Visualizações TotaisPublicado em {updateTime}Atualizado em 2025.01.14

O que é AGENT S

Como comprar S

Bem-vindo à HTX.com!Tornámos a compra de Sonic (S) simples e conveniente.Segue o nosso guia passo a passo para iniciar a tua jornada no mundo das criptos.Passo 1: cria a tua conta HTXUtiliza o teu e-mail ou número de telefone para te inscreveres numa conta gratuita na HTX.Desfruta de um processo de inscrição sem complicações e desbloqueia todas as funcionalidades.Obter a minha contaPasso 2: vai para Comprar Cripto e escolhe o teu método de pagamentoCartão de crédito/débito: usa o teu visa ou mastercard para comprar Sonic (S) instantaneamente.Saldo: usa os fundos da tua conta HTX para transacionar sem problemas.Terceiros: adicionamos métodos de pagamento populares, como Google Pay e Apple Pay, para aumentar a conveniência.P2P: transaciona diretamente com outros utilizadores na HTX.Mercado de balcão (OTC): oferecemos serviços personalizados e taxas de câmbio competitivas para os traders.Passo 3: armazena teu Sonic (S)Depois de comprar o teu Sonic (S), armazena-o na tua conta HTX.Alternativamente, podes enviá-lo para outro lugar através de transferência blockchain ou usá-lo para transacionar outras criptomoedas.Passo 4: transaciona Sonic (S)Transaciona facilmente Sonic (S) no mercado à vista da HTX.Acede simplesmente à tua conta, seleciona o teu par de trading, executa as tuas transações e monitoriza em tempo real.Oferecemos uma experiência de fácil utilização tanto para principiantes como para traders experientes.

968 Visualizações TotaisPublicado em {updateTime}Atualizado em 2025.03.21

Como comprar S

Discussões

Bem-vindo à Comunidade HTX. Aqui, pode manter-se informado sobre os mais recentes desenvolvimentos da plataforma e obter acesso a análises profissionais de mercado. As opiniões dos utilizadores sobre o preço de S (S) são apresentadas abaixo.

活动图片