We've Hoarded Trillions in Bitcoin, But Never Use It? That's Changing Now

marsbitPublicado em 2025-12-09Última atualização em 2025-12-09

Resumo

A significant portion of Bitcoin's trillion-dollar market cap remains dormant, with 61% of coins not moving in over a year and only 0.8% used in DeFi. While other ecosystems like Ethereum and L2s thrive with active use cases, Bitcoin has largely functioned as a passive store of value due to architectural and cultural constraints—prioritizing security over programmability, resisting upgrades, and lacking native interoperability. Previous solutions like wrapped BTC, federated systems, and bridges attempted to unlock Bitcoin’s liquidity but introduced new risks like custodial trust, security vulnerabilities, and reliance on external validators, contradicting Bitcoin’s trust-minimized ethos. However, this is changing with recent breakthroughs. Innovations like BitVM enable Bitcoin to verify external computations without executing them, allowing for Bitcoin-secured rollups and trust-minimized bridges. Upgrades like Taproot facilitate native assets and programmable vaults. New systems now support Bitcoin staking, restaking, and Lightning Network-based yield without requiring custodial wrapping or bridging. This emerging BTCFi ecosystem—comprising infrastructure, asset, and protocol layers—finally allows Bitcoin to participate in a functional economy while preserving its security model and self-custody principles. This could unlock a portion of the dormant capital, significantly impacting the broader crypto landscape.

Most people who buy Bitcoin today don't use it at all.

They hold it, call it digital gold, and proudly declare they are "in it for the long term." And that's fine—Bitcoin has earned that reputation.

But such massive holdings have created one of the largest pools of idle capital in the crypto ecosystem today. About 61% of Bitcoin hasn't moved in over a year, and nearly 14% hasn't moved in over a decade. Despite a market cap exceeding $2 trillion, only 0.8% of Bitcoin is currently participating in any form of decentralized finance (DeFi) activity.

In other words, Bitcoin is the most valuable asset in crypto, but also the least used.

Now, let's contrast this with other aspects of the crypto world:

  • Stablecoins settle payments globally at a massive scale.
  • Ethereum powers smart contracts, decentralized autonomous organizations (DAOs), wallets, and entire economies.
  • Layer 2s (L2s) run complete ecosystems with lending, trading, gaming, and thousands of applications.

Meanwhile, Bitcoin, the largest, most secure, and most widely held asset, can do none of the above.

Instead, it sits there with trillions in value, idle, generating no yield, creating no liquidity, and contributing nothing to the broader economy beyond security and price appreciation.

When people tried to solve this, the solutions created new problems. Wrapped BTC (WBTC) became popular but required trusting a custodian. Cross-chain bridges allowed you to move Bitcoin to another chain but introduced security risks. Bitcoin holders wanted to use their Bitcoin, but the infrastructure never provided a secure, native way to do so.

But that is finally changing. Over the past few years, a whole new ecosystem has been forming around Bitcoin, attempting to unlock all this "sleeping capital" without forcing people to wrap their Bitcoin, trust intermediaries, or move it into someone else's custody.

Why Bitcoin Ended Up Here

Bitcoin becoming a passive asset was no accident. Its entire architecture steered it in this direction. Long before DeFi emerged, Bitcoin made a clear trade-off: prioritize security above all else. This decision shaped its culture, developer environment, and ultimately, the type of economic activity that flourished around it.

The result is an extremely immutable blockchain, great for moving money but severely limiting for innovation. Most people only see the surface symptoms: low liquidity, high dormancy rates, and the dominance of wrapped Bitcoin, but the root of the problem goes much deeper.

The first limitation is Bitcoin's scripting model. It deliberately avoids complexity, keeping the base layer hard to exploit and predictable. This means no general computation, no native financial logic, no on-chain automation. Ethereum, Solana, and all modern L1s were built on the assumption that developers would build. Bitcoin was built on the assumption that they shouldn't.

The second limitation is Bitcoin's upgrade path. Any change, even a minor feature, requires coordination across the entire ecosystem. Hard forks are socially nearly impossible, and soft forks take years. So, while other cryptos iterated through entire design paradigms (e.g., AMMs, account abstraction, L2s, modular blockchains), Bitcoin remained largely stagnant. It became a settlement layer but never truly an execution layer.

The third limitation is cultural. Bitcoin's developer ecosystem is inherently conservative. This conservatism protects the network but also stifles experimentation. Any proposal introducing complexity is met with skepticism. This mindset safeguards the base layer but ensures new financial primitives can't emerge on Bitcoin like they do elsewhere.

Furthermore, there's a structural limitation: Bitcoin's value grew faster than its surrounding infrastructure. Ethereum had smart contracts from the start; Solana adopted a high-throughput design from day one. Bitcoin's value ballooned into an asset class before its "range of usable applications" could expand. Thus, the entire ecosystem ended up with a paradox: you have trillions in capital with almost nowhere to deploy it.

The final limitation is interoperability. Bitcoin is uniquely isolated; it doesn't interoperate with other blockchains and has no native bridges. Until recently, there was no trust-minimized way to connect Bitcoin to external execution environments. So, any attempt to make Bitcoin usable required abandoning part of Bitcoin's security model—wrapping, bridging, custodial minting, multisigs, federations. For an asset built on distrust of intermediaries, this could never scale.

The First Workarounds: Wrappers, Sidechains, and Bridges

When it became clear that the Bitcoin base layer couldn't support meaningful activity, the industry did what it always does: developed workarounds. Initially, these seemed like progress, enabling Bitcoin to enter realms where DeFi activity thrived. But upon closer inspection, they all shared a common flaw: using them required giving up part of Bitcoin's trust model.

The most prominent example is Wrapped Bitcoin (WBTC). It became the default bridge between Bitcoin and Ethereum, and for a while, this model seemed to work. It unlocked liquidity, allowing Bitcoin to be used as collateral, traded on AMMs, used for margin loans, looped, restaked—basically everything Bitcoin itself couldn't do. But the cost was that WBTC existed only if real Bitcoin was held by someone else. This meant custody, reliance on external entities, operational risk, and a guarantee system divorced from Bitcoin's base security.

Federated systems tried to lessen this trust burden by dispersing control across multiple entities. Instead of a single custodian, a group collectively held the Bitcoin backing the wrapped asset. This was an improvement but far from trustless. Users still relied on a coordinated set of operators, and the strength of the peg depended solely on their incentives and integrity. For a community that prefers trustless systems, this wasn't ideal.

Bridge technology introduced a new set of problems. Instead of relying on custody, users relied on an external set of validators, whose security was often weaker than the chain they were leaving. Bridges enabled moving Bitcoin across chains but became one of the biggest security holes in crypto. Multiple analyses point to bridge exploits as one of the largest sources of fund loss in the space.

Sidechains added further complexity. They are chains separate from Bitcoin, connected via various peg mechanisms. Some use multisig control, others use Simplified Payment Verification (SPV) proofs. But none inherit Bitcoin's security. They run their own consensus mechanisms, validator sets, and risk assessments. The label "Bitcoin sidechain" is often more marketing than reality. Liquidity moved, but security guarantees didn't.

What all these methods had in common was that they pushed Bitcoin outward, off its base layer, into environments where others enforced the rules. This solved the usability problem short-term but created a bigger one: Bitcoin was operating under the very trust models it was designed to avoid.

The flaws were evident:

  • Wrapped BTC (WBTC) grew only because people tolerated custodians as a temporary fix.
  • Sidechains existed but remained niche due to failing to inherit Bitcoin's security.
  • Bridges connected Bitcoin to other chains but introduced entirely new attack vectors.

Each workaround solved one problem but created another.

The Breakthrough: Bitcoin Finally Gets New Primitives

For a long time, Bitcoin's limitations were seen as irreversible. The base layer wouldn't change, upgrades were slow, and any proposal to enhance its expressiveness was dismissed as unnecessary risk.

But in the past few years, that assumption began to crack.

1. Bitcoin gained a "verify, don't execute" capability: The most important breakthrough was the emergence of a new class of verification models enabling Bitcoin to check computations done elsewhere without running them itself.

This breakthrough made BitVM and later BitVM-like systems possible. These systems didn't change Bitcoin's functionality but leveraged its ability to enforce outcomes via fraud proofs.

This means you can build logic, applications, even full execution environments outside Bitcoin, and Bitcoin can still ensure their correctness. This is fundamentally different from Ethereum's "execute everything on L1" philosophy. Bitcoin can now act as a judge. This is what finally opened the door to:

  • Bitcoin-secured rollups
  • Trust-minimized bridges
  • Programmable Bitcoin vaults
  • Off-chain computation, on-chain verification

2. Upgrades like Taproot quietly expanded Bitcoin's range: Taproot wasn't initially promoted as a DeFi upgrade, but it provided the cryptographic foundation BTCFi needed: cheaper multisigs, more flexible key path spending, and better privacy. More importantly, it enabled architectures like Taproot Assets (for stablecoins) and more advanced vault systems.

3. The emergence of Bitcoin-native assets: With Taproot and newer proof systems, projects began launching assets native to Bitcoin or secured by Bitcoin without wrapping BTC.

Combining Taproot, Schnorr signatures, and new off-chain verification techniques, developers can now build assets on Bitcoin itself or assets that directly inherit Bitcoin's security.

This includes:

  • Taproot Assets (Tether minting USDT directly on Bitcoin/Lightning stack)
  • Bitcoin-native stablecoins without relying on Ethereum, Solana, or Cosmos
  • BTC-backed synthetic assets without custodial pegs
  • Programmable vaults and multisig structures previously impossible

For the first time, assets issued on Bitcoin could be used without leaving Bitcoin. And assets issued by Bitcoin didn't require taking Bitcoin out of self-custody.

4. Bitcoin yield became possible: Bitcoin itself never had yield. Historically, the only way to "earn" yield on Bitcoin was to wrap it, send it to a custodian, lend it on a centralized platform, or bridge it to another blockchain. All these methods carried risk and completely departed from its security model.

BTCFi introduces a completely new way for Bitcoin to generate yield. How? By creating systems where Bitcoin contributes to network security. This leads to three types:

Bitcoin staking (for other networks): BTC can now secure PoS networks or appchains without leaving the Bitcoin chain.

Bitcoin restaking: Similar to how Ethereum can secure multiple protocols via shared security, Bitcoin can now be used as collateral to back external chains, oracles, DA layers, etc.

Lightning Network-based yield systems: Protocols like Stroom allow BTC used in Lightning channels to earn yield by providing liquidity, again without wrapping or relying on custodial bridges.

None of this was possible before BTCFi.

5. Bitcoin finally got an execution layer: Recent advances in off-chain verification allow Bitcoin to enforce the results of computations it doesn't perform itself. This lets developers build rollups, bridges, and contract systems around Bitcoin that rely on Bitcoin for verification, not computation. The base layer remains unchanged, but outer layers can now run logic and prove its correctness to Bitcoin when needed.

This gives Bitcoin unprecedented power: the ability to support applications, contract-like behavior, and new financial primitives without moving Bitcoin into custodial systems or rewriting the protocol. This isn't "smart contracts on Bitcoin" but a verification model that preserves Bitcoin's simplicity while allowing more complex systems to exist around it.

BTCFi Overview: What's Actually Being Built

As the underlying verification and portability tools matured, the Bitcoin ecosystem finally began expanding in ways that no longer rely on custodians or wrapped assets. What's emerging today isn't a single product or category but a series of interconnected layers that, for the first time, give Bitcoin a fully functional economy. The easiest way to understand this is to see how these components complement each other.

Infrastructure Layer: The first significant change is the emergence of Bitcoin-secured execution environments. These aren't L1 competitors or attempts to turn Bitcoin into a smart contract platform. They are external systems that handle computation, relying on Bitcoin only for verification. This separation is crucial. It creates a space where lending, trading, collateral management, and even more complex primitives can exist without any changes to Bitcoin's base layer. It also avoids the pitfalls of the old model, where using Bitcoin meant handing it to a custodian or trusting a multisig. Now, Bitcoin itself remains untouched; computation happens around it.

Assets & Custody Layer: Simultaneously, a new generation of Bitcoin bridges is forming, no longer the custodial, trust-heavy bridges of the last cycle, but bridges built around verifiable outcomes. Instead of requiring users to trust a set of operators, these systems use challenge mechanisms and fraud proofs to automatically reject incorrect state transitions. The result is a safer way to move Bitcoin to external environments without relying on the fragile trust assumptions of earlier designs. More importantly, this type of bridge aligns with Bitcoin holders' inherent sense of security: minimal trust, minimal dependency.

Protocol Layer: As asset movement becomes safer, the next wave of innovation focuses on what Bitcoin can do within these environments. Yield markets and security markets emerge here. For most of Bitcoin's history, earning any yield on Bitcoin meant sending it to an exchange or wrapping it onto another blockchain. Now, staking and restaking models allow Bitcoin to contribute to external network security without leaving its own custody. Yield doesn't come from credit risk or rehypothecation but from the economic value of maintaining consensus or verifying computation results.

Meanwhile, Bitcoin-native assets are starting to appear. Instead of wrapping Bitcoin or moving it to Ethereum, developers are beginning to use Taproot, Schnorr signatures, and off-chain verification to issue assets on Bitcoin or peg assets to Bitcoin's security. This includes stablecoins minted directly on Bitcoin infrastructure, synthetic assets without custodial dependencies, and vault structures allowing more flexible spending conditions. All this expands Bitcoin's utility without introducing it to different trust models.

These advances are interesting individually. Together, they mark the birth of the first coherent Bitcoin financial system. Computation can happen off-chain and be enforced on Bitcoin. Bitcoin can be moved securely without custody. It can earn yield without leaving self-custody. Assets can exist natively without relying on other ecosystems' security. Each advance solves a different part of the liquidity trap that has plagued Bitcoin for over a decade.

My Take?

I think the simplest way to view BTCFi is this: Bitcoin finally has an ecosystem that matches its scale. For years, people tried to build a Bitcoin ecosystem with tools that simply couldn't support trillion-dollar liquidity. No serious Bitcoin holder would stake their Bitcoin on custodial pegs, unverified bridges, or jury-rigged sidechains—and they didn't.

This wave is different because it meets Bitcoin entirely on its own terms. The security model remains intact, self-custody remains intact, and the surrounding systems are finally robust enough to carry meaningful capital. If even a small fraction of dormant BTC starts moving because the infrastructure is finally worthy of it, the impact will be profound.

This new wave is different because it approaches the challenge Bitcoin's way. The security model is preserved, self-custody mechanisms remain whole, and the systems around Bitcoin are finally strong enough to handle significant capital flows. Even if only a small portion of sleeping Bitcoin begins to move because the infrastructure has finally matured, the impact will be significant.

Perguntas relacionadas

QWhat percentage of Bitcoin has not moved in over a year, and what does this indicate about its use?

AApproximately 61% of Bitcoin has not moved in over a year, and nearly 14% has been dormant for over a decade. This indicates that Bitcoin, despite its massive market cap, is largely used as a passive store of value ('digital gold') rather than for active transactions or economic activity, creating one of the largest pools of idle capital in the crypto ecosystem.

QWhat were the main limitations of Bitcoin's architecture that prevented it from being used in DeFi and other economic activities?

ABitcoin's main limitations were its script model (lacking general computation and on-chain automation), its slow and difficult upgrade path requiring ecosystem-wide coordination, its conservative developer culture that discouraged complexity, and its structural isolation with no native interoperability or bridging capabilities. These factors prioritized security and immutability over innovation and programmability.

QWhat were the problems with early workarounds like Wrapped BTC and cross-chain bridges?

AEarly workarounds like Wrapped BTC required trusting custodians or federations, introducing counterparty risk. Cross-chain bridges relied on external validator sets that were often less secure than Bitcoin itself, making them major attack vectors. These solutions moved Bitcoin into external trust models that contradicted its foundational principle of minimizing trust in intermediaries.

QWhat key technological breakthrough enabled Bitcoin to verify off-chain computations without executing them?

AThe key breakthrough was the development of verification models like BitVM, which utilize Bitcoin's ability to enforce outcomes through fraud proofs. This allows Bitcoin to check the correctness of computations performed elsewhere (off-chain) without having to perform the computations itself, enabling trust-minimized rollups, bridges, and programmable vaults.

QHow does BTCFi enable Bitcoin to earn yield without leaving its own security model?

ABTCFi enables yield generation by allowing Bitcoin to contribute to the security of other networks or protocols without being moved to custodians or wrapped. This includes Bitcoin staking (securing PoS networks), restaking (securing multiple external systems), and earning from Lightning Network liquidity provision—all while the Bitcoin remains natively on-chain under self-custody.

Leituras Relacionadas

Breaking: OpenAI Undergoes Major Reorganization, President Brockman Assumes Command

OpenAI has announced a major internal reorganization just months before its anticipated IPO. The company is merging its three flagship product lines—ChatGPT, Codex, and the API platform—into a single, unified product organization. The most significant leadership change involves co-founder and President Greg Brockman moving from a background technical role to take full, permanent control over all product strategy. This follows the indefinite medical leave of AGI Deployment CEO Fidji Simo. Additionally, ChatGPT's longtime lead, Nick Turley, has been reassigned to enterprise products, with former Instagram executive Ashley Alexander taking over consumer offerings. The consolidation, internally framed as a strategic move towards an "Agentic Future," aims to break down internal silos and create a cohesive "Super App." This planned desktop application would integrate ChatGPT's conversational abilities, Codex's coding power, and a rumored internal web browser named "Atlas" to autonomously perform complex user tasks. The reorganization occurs amid significant internal and external pressures. OpenAI has recently seen a wave of high-profile departures, including Sora co-lead Bill Peebles and other senior technical leaders, leading to concerns about a thinning executive bench. Externally, rival Anthropic recently secured funding at a staggering $900 billion valuation, surpassing OpenAI's own. Google's upcoming I/O developer conference also poses a competitive threat. Analysts suggest the dramatic restructure is a pre-IPO move to present a clearer, more focused narrative to Wall Street—streamlining operations and demonstrating decisive leadership under Brockman to counter internal turbulence and intense market competition.

marsbitHá 51m

Breaking: OpenAI Undergoes Major Reorganization, President Brockman Assumes Command

marsbitHá 51m

Two Survival Structures of Market Makers and Arbitrageurs

Market makers and arbitrageurs represent two distinct survival structures in high-frequency trading. Market makers primarily use limit orders (makers) to profit from the bid-ask spread, enjoying high capital efficiency (nominally 100%) but bearing inventory risk. This "inventory risk" arises from passive, fragmented, and discontinuous order fills in the limit order book (LOB). This risk, while a potential cost, can also contribute to excess profit if managed within control boundaries, allowing for mean reversion. Market makers essentially sell "time" (uncertainty over execution timing) to the market for price control and low fees. In contrast, cross-exchange arbitrageurs typically use market orders (takers) to exploit price differences or funding rates, resulting in lower nominal capital efficiency (requiring capital on both exchanges) and higher transaction costs. Their risk exposure stems from asymmetries in exchange rules (e.g., minimum order sizes), execution latency, and infrastructure risks (e.g., ADL, oracle drift). These exposures are active, exogenous gaps that primarily erode profits rather than contribute to them. Arbitrageurs essentially sell "space" (capital sunk across venues) for localized, immediate certainty. Both strategies engage in a trade-off between execution friction and residual risk. Optimal systems allow for temporary, controlled risk exposure rather than enforcing zero exposure at all costs. Their evolution converges towards hybrid models: arbitrageurs may use maker orders to reduce costs, while market makers may use taker orders or hedges for risk management. Ultimately, both use different forms of risk exposure—market makers exposing inventory, arbitrageurs immobilizing capital—to extract marginal, hard-won certainty from the market.

链捕手Há 51m

Two Survival Structures of Market Makers and Arbitrageurs

链捕手Há 51m

Who Will Define the Rules of the AI Era? Anthropic Discusses the 2028 US-China AI Landscape

This article, based on Anthropic's analysis, outlines the intensifying systemic competition between the U.S./allies and China for AI leadership by 2028. It argues that access to advanced computing power ("compute") is the critical bottleneck, where the U.S. currently holds a significant advantage through chip export controls and allied innovation. However, China's AI labs remain competitive by exploiting policy loopholes—via chip smuggling, overseas data center access, and "model distillation" attacks to copy U.S. model capabilities—keeping them close to the frontier. The piece presents two contrasting scenarios for 2028. In the first, decisive U.S. action to tighten compute controls and curb distillation locks in a 12-24 month AI capability lead, cementing democratic influence over global AI norms, security, and economic infrastructure. In the second, policy inaction allows China to achieve near-parity through continued access to U.S. technology, enabling Beijing to promote its AI stack globally and integrate advanced AI into its military and governance systems, altering the strategic balance. Anthropic contends that maintaining a decisive U.S. lead is essential for shaping safe AI development and governance. The core recommendation is for U.S. policymakers to urgently close compute and model access loopholes while promoting global adoption of the U.S. AI technology stack to secure a lasting strategic advantage.

marsbitHá 2h

Who Will Define the Rules of the AI Era? Anthropic Discusses the 2028 US-China AI Landscape

marsbitHá 2h

Trading

Spot
Futuros

Artigos em Destaque

O que é $S$

Compreender o SPERO: Uma Visão Abrangente Introdução ao SPERO À medida que o panorama da inovação continua a evoluir, o surgimento de tecnologias web3 e projetos de criptomoeda desempenha um papel fundamental na formação do futuro digital. Um projeto que tem atraído atenção neste campo dinâmico é o SPERO, denotado como SPERO,$$s$. Este artigo tem como objetivo reunir e apresentar informações detalhadas sobre o SPERO, para ajudar entusiastas e investidores a compreender as suas bases, objetivos e inovações nos domínios web3 e cripto. O que é o SPERO,$$s$? O SPERO,$$s$ é um projeto único dentro do espaço cripto que procura aproveitar os princípios da descentralização e da tecnologia blockchain para criar um ecossistema que promove o envolvimento, a utilidade e a inclusão financeira. O projeto é concebido para facilitar interações peer-to-peer de novas maneiras, proporcionando aos utilizadores soluções e serviços financeiros inovadores. No seu núcleo, o SPERO,$$s$ visa capacitar indivíduos ao fornecer ferramentas e plataformas que melhoram a experiência do utilizador no espaço das criptomoedas. Isso inclui a possibilidade de métodos de transação mais flexíveis, a promoção de iniciativas impulsionadas pela comunidade e a criação de caminhos para oportunidades financeiras através de aplicações descentralizadas (dApps). A visão subjacente do SPERO,$$s$ gira em torno da inclusão, visando fechar lacunas dentro das finanças tradicionais enquanto aproveita os benefícios da tecnologia blockchain. Quem é o Criador do SPERO,$$s$? A identidade do criador do SPERO,$$s$ permanece algo obscura, uma vez que existem recursos publicamente disponíveis limitados que fornecem informações detalhadas sobre o(s) seu(s) fundador(es). Esta falta de transparência pode resultar do compromisso do projeto com a descentralização—uma ética que muitos projetos web3 partilham, priorizando contribuições coletivas em vez de reconhecimento individual. Ao centrar as discussões em torno da comunidade e dos seus objetivos coletivos, o SPERO,$$s$ incorpora a essência do empoderamento sem destacar indivíduos específicos. Assim, compreender a ética e a missão do SPERO é mais importante do que identificar um criador singular. Quem são os Investidores do SPERO,$$s$? O SPERO,$$s$ é apoiado por uma diversidade de investidores que vão desde capitalistas de risco a investidores-anjo dedicados a promover a inovação no setor cripto. O foco desses investidores geralmente alinha-se com a missão do SPERO—priorizando projetos que prometem avanço tecnológico social, inclusão financeira e governança descentralizada. Essas fundações de investidores estão tipicamente interessadas em projetos que não apenas oferecem produtos inovadores, mas que também contribuem positivamente para a comunidade blockchain e os seus ecossistemas. O apoio desses investidores reforça o SPERO,$$s$ como um concorrente notável no domínio em rápida evolução dos projetos cripto. Como Funciona o SPERO,$$s$? O SPERO,$$s$ emprega uma estrutura multifacetada que o distingue de projetos de criptomoeda convencionais. Aqui estão algumas das características-chave que sublinham a sua singularidade e inovação: Governança Descentralizada: O SPERO,$$s$ integra modelos de governança descentralizada, capacitando os utilizadores a participar ativamente nos processos de tomada de decisão sobre o futuro do projeto. Esta abordagem promove um sentido de propriedade e responsabilidade entre os membros da comunidade. Utilidade do Token: O SPERO,$$s$ utiliza o seu próprio token de criptomoeda, concebido para servir várias funções dentro do ecossistema. Esses tokens permitem transações, recompensas e a facilitação de serviços oferecidos na plataforma, melhorando o envolvimento e a utilidade gerais. Arquitetura em Camadas: A arquitetura técnica do SPERO,$$s$ suporta modularidade e escalabilidade, permitindo a integração contínua de funcionalidades e aplicações adicionais à medida que o projeto evolui. Esta adaptabilidade é fundamental para manter a relevância no panorama cripto em constante mudança. Envolvimento da Comunidade: O projeto enfatiza iniciativas impulsionadas pela comunidade, empregando mecanismos que incentivam a colaboração e o feedback. Ao nutrir uma comunidade forte, o SPERO,$$s$ pode melhor atender às necessidades dos utilizadores e adaptar-se às tendências do mercado. Foco na Inclusão: Ao oferecer taxas de transação baixas e interfaces amigáveis, o SPERO,$$s$ visa atrair uma base de utilizadores diversificada, incluindo indivíduos que anteriormente podem não ter participado no espaço cripto. Este compromisso com a inclusão alinha-se com a sua missão abrangente de empoderamento através da acessibilidade. Cronologia do SPERO,$$s$ Compreender a história de um projeto fornece insights cruciais sobre a sua trajetória de desenvolvimento e marcos. Abaixo está uma cronologia sugerida que mapeia eventos significativos na evolução do SPERO,$$s$: Fase de Conceituação e Ideação: As ideias iniciais que formam a base do SPERO,$$s$ foram concebidas, alinhando-se de perto com os princípios de descentralização e foco na comunidade dentro da indústria blockchain. Lançamento do Whitepaper do Projeto: Após a fase conceitual, um whitepaper abrangente detalhando a visão, os objetivos e a infraestrutura tecnológica do SPERO,$$s$ foi lançado para atrair o interesse e o feedback da comunidade. Construção da Comunidade e Primeiros Envolvimentos: Esforços ativos de divulgação foram feitos para construir uma comunidade de primeiros adotantes e investidores potenciais, facilitando discussões em torno dos objetivos do projeto e angariando apoio. Evento de Geração de Tokens: O SPERO,$$s$ realizou um evento de geração de tokens (TGE) para distribuir os seus tokens nativos a apoiantes iniciais e estabelecer liquidez inicial dentro do ecossistema. Lançamento da dApp Inicial: A primeira aplicação descentralizada (dApp) associada ao SPERO,$$s$ foi lançada, permitindo que os utilizadores interagissem com as funcionalidades principais da plataforma. Desenvolvimento Contínuo e Parcerias: Atualizações e melhorias contínuas nas ofertas do projeto, incluindo parcerias estratégicas com outros players no espaço blockchain, moldaram o SPERO,$$s$ em um jogador competitivo e em evolução no mercado cripto. Conclusão O SPERO,$$s$ é um testemunho do potencial do web3 e das criptomoedas para revolucionar os sistemas financeiros e capacitar indivíduos. Com um compromisso com a governança descentralizada, o envolvimento da comunidade e funcionalidades inovadoras, abre caminho para um panorama financeiro mais inclusivo. Como em qualquer investimento no espaço cripto em rápida evolução, potenciais investidores e utilizadores são incentivados a pesquisar minuciosamente e a envolver-se de forma ponderada com os desenvolvimentos em curso dentro do SPERO,$$s$. O projeto demonstra o espírito inovador da indústria cripto, convidando a uma exploração mais aprofundada das suas inúmeras possibilidades. Embora a jornada do SPERO,$$s$ ainda esteja a desenrolar-se, os seus princípios fundamentais podem, de facto, influenciar o futuro de como interagimos com a tecnologia, as finanças e uns com os outros em ecossistemas digitais interconectados.

69 Visualizações TotaisPublicado em {updateTime}Atualizado em 2024.12.17

O que é $S$

O que é AGENT S

Agent S: O Futuro da Interação Autónoma no Web3 Introdução No panorama em constante evolução do Web3 e das criptomoedas, as inovações estão constantemente a redefinir a forma como os indivíduos interagem com plataformas digitais. Um projeto pioneiro, o Agent S, promete revolucionar a interação humano-computador através do seu framework aberto e agente. Ao abrir caminho para interações autónomas, o Agent S visa simplificar tarefas complexas, oferecendo aplicações transformadoras em inteligência artificial (IA). Esta exploração detalhada irá aprofundar-se nas complexidades do projeto, nas suas características únicas e nas implicações para o domínio das criptomoedas. O que é o Agent S? O Agent S é um framework aberto e agente, especificamente concebido para abordar três desafios fundamentais na automação de tarefas computacionais: Aquisição de Conhecimento Específico de Domínio: O framework aprende inteligentemente a partir de várias fontes de conhecimento externas e experiências internas. Esta abordagem dupla capacita-o a construir um rico repositório de conhecimento específico de domínio, melhorando o seu desempenho na execução de tarefas. Planeamento ao Longo de Longos Horizontes de Tarefas: O Agent S emprega planeamento hierárquico aumentado por experiência, uma abordagem estratégica que facilita a decomposição e execução eficientes de tarefas intrincadas. Esta característica melhora significativamente a sua capacidade de gerir múltiplas subtarefas de forma eficiente e eficaz. Gestão de Interfaces Dinâmicas e Não Uniformes: O projeto introduz a Interface Agente-Computador (ACI), uma solução inovadora que melhora a interação entre agentes e utilizadores. Utilizando Modelos de Linguagem Multimodais de Grande Escala (MLLMs), o Agent S pode navegar e manipular diversas interfaces gráficas de utilizador de forma fluida. Através destas características pioneiras, o Agent S fornece um framework robusto que aborda as complexidades envolvidas na automação da interação humana com máquinas, preparando o terreno para uma infinidade de aplicações em IA e além. Quem é o Criador do Agent S? Embora o conceito de Agent S seja fundamentalmente inovador, informações específicas sobre o seu criador permanecem elusivas. O criador é atualmente desconhecido, o que destaca ou o estágio nascente do projeto ou a escolha estratégica de manter os membros fundadores em anonimato. Independentemente da anonimidade, o foco permanece nas capacidades e no potencial do framework. Quem são os Investidores do Agent S? Como o Agent S é relativamente novo no ecossistema criptográfico, informações detalhadas sobre os seus investidores e financiadores não estão explicitamente documentadas. A falta de informações disponíveis publicamente sobre as fundações de investimento ou organizações que apoiam o projeto levanta questões sobre a sua estrutura de financiamento e roteiro de desenvolvimento. Compreender o apoio é crucial para avaliar a sustentabilidade do projeto e o seu impacto potencial no mercado. Como Funciona o Agent S? No núcleo do Agent S reside uma tecnologia de ponta que lhe permite funcionar eficazmente em diversos ambientes. O seu modelo operacional é construído em torno de várias características-chave: Interação Humano-Computador Semelhante: O framework oferece planeamento avançado em IA, esforçando-se para tornar as interações com computadores mais intuitivas. Ao imitar o comportamento humano na execução de tarefas, promete elevar as experiências dos utilizadores. Memória Narrativa: Utilizada para aproveitar experiências de alto nível, o Agent S utiliza memória narrativa para acompanhar os históricos de tarefas, melhorando assim os seus processos de tomada de decisão. Memória Episódica: Esta característica fornece aos utilizadores orientações passo a passo, permitindo que o framework ofereça suporte contextual à medida que as tarefas se desenrolam. Suporte para OpenACI: Com a capacidade de funcionar localmente, o Agent S permite que os utilizadores mantenham o controlo sobre as suas interações e fluxos de trabalho, alinhando-se com a ética descentralizada do Web3. Fácil Integração com APIs Externas: A sua versatilidade e compatibilidade com várias plataformas de IA garantem que o Agent S possa integrar-se perfeitamente em ecossistemas tecnológicos existentes, tornando-o uma escolha apelativa para desenvolvedores e organizações. Estas funcionalidades contribuem coletivamente para a posição única do Agent S no espaço cripto, à medida que automatiza tarefas complexas e em múltiplos passos com mínima intervenção humana. À medida que o projeto evolui, as suas potenciais aplicações no Web3 podem redefinir a forma como as interações digitais se desenrolam. Cronologia do Agent S O desenvolvimento e os marcos do Agent S podem ser encapsulados numa cronologia que destaca os seus eventos significativos: 27 de Setembro de 2024: O conceito de Agent S foi lançado num artigo de pesquisa abrangente intitulado “Um Framework Agente Aberto que Usa Computadores como um Humano”, mostrando a base para o projeto. 10 de Outubro de 2024: O artigo de pesquisa foi disponibilizado publicamente no arXiv, oferecendo uma exploração aprofundada do framework e da sua avaliação de desempenho com base no benchmark OSWorld. 12 de Outubro de 2024: Uma apresentação em vídeo foi lançada, proporcionando uma visão visual das capacidades e características do Agent S, envolvendo ainda mais potenciais utilizadores e investidores. Estes marcos na cronologia não apenas ilustram o progresso do Agent S, mas também indicam o seu compromisso com a transparência e o envolvimento da comunidade. Pontos-Chave Sobre o Agent S À medida que o framework Agent S continua a evoluir, várias características-chave destacam-se, sublinhando a sua natureza inovadora e potencial: Framework Inovador: Concebido para proporcionar um uso intuitivo de computadores semelhante à interação humana, o Agent S traz uma abordagem nova à automação de tarefas. Interação Autónoma: A capacidade de interagir autonomamente com computadores através de GUI significa um avanço em direção a soluções computacionais mais inteligentes e eficientes. Automação de Tarefas Complexas: Com a sua metodologia robusta, pode automatizar tarefas complexas e em múltiplos passos, tornando os processos mais rápidos e menos propensos a erros. Melhoria Contínua: Os mecanismos de aprendizagem permitem que o Agent S melhore a partir de experiências passadas, aprimorando continuamente o seu desempenho e eficácia. Versatilidade: A sua adaptabilidade em diferentes ambientes operacionais, como OSWorld e WindowsAgentArena, garante que pode servir uma ampla gama de aplicações. À medida que o Agent S se posiciona no panorama do Web3 e das criptomoedas, o seu potencial para melhorar as capacidades de interação e automatizar processos significa um avanço significativo nas tecnologias de IA. Através do seu framework inovador, o Agent S exemplifica o futuro das interações digitais, prometendo uma experiência mais fluida e eficiente para os utilizadores em diversas indústrias. Conclusão O Agent S representa um ousado avanço na união da IA e do Web3, com a capacidade de redefinir a forma como interagimos com a tecnologia. Embora ainda esteja nas suas fases iniciais, as possibilidades para a sua aplicação são vastas e cativantes. Através do seu framework abrangente que aborda desafios críticos, o Agent S visa trazer interações autónomas para o primeiro plano da experiência digital. À medida que avançamos mais profundamente nos domínios das criptomoedas e da descentralização, projetos como o Agent S desempenharão, sem dúvida, um papel crucial na formação do futuro da tecnologia e da colaboração humano-computador.

631 Visualizações TotaisPublicado em {updateTime}Atualizado em 2025.01.14

O que é AGENT S

Como comprar S

Bem-vindo à HTX.com!Tornámos a compra de Sonic (S) simples e conveniente.Segue o nosso guia passo a passo para iniciar a tua jornada no mundo das criptos.Passo 1: cria a tua conta HTXUtiliza o teu e-mail ou número de telefone para te inscreveres numa conta gratuita na HTX.Desfruta de um processo de inscrição sem complicações e desbloqueia todas as funcionalidades.Obter a minha contaPasso 2: vai para Comprar Cripto e escolhe o teu método de pagamentoCartão de crédito/débito: usa o teu visa ou mastercard para comprar Sonic (S) instantaneamente.Saldo: usa os fundos da tua conta HTX para transacionar sem problemas.Terceiros: adicionamos métodos de pagamento populares, como Google Pay e Apple Pay, para aumentar a conveniência.P2P: transaciona diretamente com outros utilizadores na HTX.Mercado de balcão (OTC): oferecemos serviços personalizados e taxas de câmbio competitivas para os traders.Passo 3: armazena teu Sonic (S)Depois de comprar o teu Sonic (S), armazena-o na tua conta HTX.Alternativamente, podes enviá-lo para outro lugar através de transferência blockchain ou usá-lo para transacionar outras criptomoedas.Passo 4: transaciona Sonic (S)Transaciona facilmente Sonic (S) no mercado à vista da HTX.Acede simplesmente à tua conta, seleciona o teu par de trading, executa as tuas transações e monitoriza em tempo real.Oferecemos uma experiência de fácil utilização tanto para principiantes como para traders experientes.

1.2k Visualizações TotaisPublicado em {updateTime}Atualizado em 2025.03.21

Como comprar S

Discussões

Bem-vindo à Comunidade HTX. Aqui, pode manter-se informado sobre os mais recentes desenvolvimentos da plataforma e obter acesso a análises profissionais de mercado. As opiniões dos utilizadores sobre o preço de S (S) são apresentadas abaixo.

活动图片