a16z's 10,000-Word Essay (Part 1): The Misunderstood 'Quantum Supremacy', You Don't Need to Panic Until 2030

marsbitPubblicato 2025-12-12Pubblicato ultima volta 2025-12-12

Introduzione

The article clarifies misconceptions about "quantum supremacy" and argues that cryptographically relevant quantum computers (CRQC) capable of breaking classical encryption (e.g., via Shor's algorithm) are unlikely to emerge before 2030. It distinguishes between post-quantum encryption and signatures, emphasizing that encryption requires immediate migration due to "Harvest Now, Decrypt Later" (HNDL) attacks, where adversaries store encrypted data for future decryption. In contrast, post-quantum signatures are less urgency, as they are not vulnerable to HNDL—past signatures remain secure even after CRQC emergence. The article critiques exaggerated claims about quantum progress, noting that current hardware lacks the scale, fidelity, and error correction needed for CRQC. It also highlights that zkSNARKs, like signatures, are not susceptible to HNDL attacks. Migration strategies should prioritize encryption while adopting a measured approach for signatures to avoid unnecessary costs and risks.

Currently, predictions about when "Cryptographically Relevant Quantum Computers (CRQC)" will emerge are often overly aggressive and exaggerated—leading to calls for an immediate and comprehensive migration to post-quantum cryptography.

However, these calls often overlook the costs and risks of premature migration, as well as the vastly different risk profiles of various cryptographic primitives:

  • Post-quantum encryption does indeed need to be deployed immediately, despite the high costs: "Harvest Now, Decrypt Later" (HNDL) attacks are already happening. Sensitive data encrypted today may still be valuable decades later when quantum computers emerge. Although implementing post-quantum encryption incurs performance overhead and execution risks, for data requiring long-term confidentiality, there is no alternative in the face of HNDL attacks.
  • Post-quantum signatures, however, face a completely different computational logic: They are not affected by HNDL attacks. Moreover, the costs and risks of post-quantum signatures (larger size, worse performance, immature technology, and potential bugs) dictate a thoughtful, rather than rushed, migration strategy.

Clarifying these distinctions is crucial. Misunderstandings distort cost-benefit analyses, causing teams to overlook more immediate and critical security risks—such as code bugs.

The real challenge in migrating to post-quantum cryptography is matching the sense of urgency with the actual threat. The following sections will clarify common misconceptions about the quantum threat by covering encryption, signatures, and zero-knowledge proofs (particularly their impact on blockchain).

How Far Are We from the Quantum Threat?

Despite the hype, the likelihood of a "Cryptographically Relevant Quantum Computer (CRQC)" emerging in the 2020s is extremely low.

By "CRQC," I mean a fault-tolerant, error-corrected quantum computer, large enough to run Shor's algorithm to attack elliptic curve cryptography or RSA in a reasonable time (e.g., breaking secp256k1 or RSA-2048 in at most a month).

A reasonable reading of public milestones and resource estimates shows we are still far from building such a machine. Although some companies claim CRQC could appear before 2030 or 2035, currently known public developments do not support these claims.

Objectively, looking at all current technical architectures—ion traps, superconducting qubits, neutral atom systems—none of these platforms today come close to the hundreds of thousands to millions of physical qubits required to run Shor's algorithm (depending on error rates and error correction schemes).

The limiting factors are not just the number of qubits, but also gate fidelities, qubit connectivity, and the sustained error-corrected circuit depth needed to run deep quantum algorithms. Although some systems now have over 1,000 physical qubits, focusing solely on the number is misleading: these systems lack the connectivity and fidelity required for cryptographically relevant computations.

Recent systems are beginning to approach the threshold where quantum error correction becomes effective in terms of physical error rates, but no one has yet demonstrated more than a few logical qubits with sustained error-corrected circuit depth... let alone the thousands of high-fidelity, deep-circuit, fault-tolerant logical qubits actually needed to run Shor's algorithm. The gap from "proving quantum error correction works in principle" to "achieving the scale needed for cryptanalysis" remains vast.

In short: unless both the number of qubits and their fidelities improve by several orders of magnitude, CRQC remains out of reach.

However, it's easy to be confused by corporate PR and media reports. Here are some common sources of misunderstanding:

  • Demonstrations claiming "quantum advantage": These currently target artificially designed tasks. They are chosen not for their utility, but because they can run on existing hardware and exhibit massive quantum speedup—a point often glossed over in announcements.
  • Companies claiming to have thousands of physical qubits: This usually refers to quantum annealers, not the gate-model machines needed to run Shor's algorithm against public-key cryptography.
  • Misuse of the term "logical qubit": Quantum algorithms (like Shor's) require thousands of stable logical qubits. Through quantum error correction, we can implement one logical qubit using many physical qubits—typically hundreds to thousands. But some companies have abused this term to an absurd degree. For example, a recent announcement claimed 48 logical qubits using only two physical qubits per logical qubit. Such low-redundancy codes can only detect errors, not correct them. True fault-tolerant logical qubits for cryptanalysis each require hundreds to thousands of physical qubits.
  • Playing with definitions: Many roadmaps use "logical qubit" to refer to qubits that only support Clifford operations. These operations can be efficiently simulated by classical computers and are therefore entirely insufficient for running Shor's algorithm.

Even if a roadmap aims for "thousands of logical qubits by year X," this does not mean the company expects to run Shor's algorithm to break classical cryptography that year.

These marketing tactics severely distort the public's (and even some seasoned observers') perception of how imminent the quantum threat is.

Nonetheless, some experts are indeed excited about the progress. Scott Aaronson recently stated that, given the speed of hardware advances, he considers it "possible to have a fault-tolerant quantum computer running Shor's algorithm before the next US presidential election". But he also made clear that this is not equivalent to a CRQC threatening cryptography: even just factorizing 15 = 3 × 5 under a fault-tolerant regime would count as "fulfilling the prophecy." This is clearly not on the same scale as breaking RSA-2048.

In fact, all quantum experiments "factorizing 15" use simplified circuits, not the full fault-tolerant Shor's algorithm; factorizing 21 even required additional hints and shortcuts.

Simply put, no public progress demonstrates that we can build a quantum computer capable of breaking RSA-2048 or secp256k1 within the next 5 years.

Predicting it within ten years is still very aggressive.

The US government's proposal to complete the post-quantum migration for government systems by 2035 is a timeline for the migration project itself, not a prediction that CRQC will appear by then.

Which Cryptographic Systems Are Susceptible to HNDL Attacks?

"HNDL (Harvest Now, Decrypt Later)" refers to attackers storing encrypted communications now to decrypt them later when quantum computers become available.

Nation-state adversaries are likely already archiving encrypted US government communications on a massive scale for future decryption. Therefore, encryption systems need immediate migration, especially for scenarios where confidentiality is required for 10–50 years or more.

However, digital signatures, which all blockchains rely on, are different from encryption: they contain no secret information vulnerable to retrospective attacks.

In other words, when quantum computers arrive, they could indeed forge signatures from that moment onward, but past signatures remain unaffected—because they泄露 no secret. As long as it can be proven that a signature was generated before the advent of CRQC, it could not have been forged.

Consequently, the urgency to migrate to post-quantum signatures is far lower than for encryption migration.

Mainstream platforms have adopted corresponding strategies:

  • Chrome and Cloudflare have deployed hybrid X25519+ML-KEM for TLS.
  • Apple iMessage (PQ3) and Signal (PQXDH, SPQR) have also deployed hybrid post-quantum encryption.

But the deployment of post-quantum signatures on critical web infrastructure has been deliberately delayed—it will only happen when CRQC truly approaches, because the performance regression of current post-quantum signatures is still significant.

The situation is similar for zkSNARKs (Zero-Knowledge Succinct Non-Interactive Arguments of Knowledge). Even those using elliptic curves (not PQ-secure) retain their zero-knowledge property in a quantum context.

The zero-knowledge guarantee means the proof does not leak any secret witness, so attackers cannot "harvest proofs now and decrypt later." Therefore, zkSNARKs are not susceptible to HNDL attacks. Just like signatures generated today are secure, any zkSNARK proof generated before the advent of quantum computers is trustworthy—even if that zkSNARK uses elliptic curve cryptography. Only after CRQC emerges could attackers forge proofs for false statements. Value exchange will continue day and night, constructing a new digital world far exceeding the scale of the human economy.

Domande pertinenti

QWhat is the main difference in urgency between migrating to post-quantum encryption and post-quantum signatures according to the article?

APost-quantum encryption requires immediate deployment due to Harvest Now, Decrypt Later (HNDL) attacks, where encrypted sensitive data intercepted today could be decrypted later when quantum computers emerge. In contrast, post-quantum signatures are not vulnerable to HNDL attacks, as they do not involve confidential information that can be retroactively compromised, allowing for a more deliberate migration strategy due to their performance overhead and technical immaturity.

QWhat does CRQC stand for and what capabilities must it have to pose a threat to cryptography?

ACRQC stands for 'Cryptographically Relevant Quantum Computer'. It refers to a fault-tolerant, error-corrected quantum computer capable of running Shor's algorithm to break elliptic curve cryptography or RSA (e.g., cracking secp256k1 or RSA-2048) within a reasonable time frame, such as a month.

QWhy does the article claim that a CRQC is unlikely to emerge in the 2020s?

AThe article argues that current quantum computing platforms lack the necessary scale (hundreds of thousands to millions of physical qubits), gate fidelities, qubit connectivity, and sustained error-corrected circuit depth required for cryptanalysis. Public milestones and resource estimates do not support claims of CRQC emergence in this decade, as no system has demonstrated the high-fidelity, deep-circuit, fault-tolerant logical qubits needed for Shor's algorithm.

QHow do HNDL attacks specifically target encryption but not digital signatures?

AHNDL (Harvest Now, Decrypt Later) attacks involve adversaries intercepting and storing encrypted communications today to decrypt them later when quantum computers are available. This threatens encryption because it relies on secrecy that can be retroactively. Digital signatures, however, do not involve confidential information; while future quantum computers could forge new signatures, past signatures remain secure as they cannot be forged retroactively if generated before CRQC emergence.

QWhat is the current industry approach to post-quantum cryptography migration for encryption versus signatures?

AFor encryption, industry leaders like Chrome, Cloudflare, Apple iMessage, and Signal have already deployed hybrid post-quantum encryption (e.g., X25519+ML-KEM) to counter HNDL threats. For signatures, migration is deliberately delayed until CRQC is imminent due to significant performance drawbacks (larger sizes, worse performance, technical immaturity, and potential bugs) and the absence of HNDL risks.

Letture associate

Borrowing Money from a Hundred Years Later, Building Incomprehensible AI

Tech giants like Alphabet, Amazon, Meta, and Microsoft are undergoing a radical financial transformation due to AI. Their traditional "light-asset, high-free-cash-flow" model is being dismantled by staggering capital expenditures on AI infrastructure—data centers, GPUs, and power. Combined 2026 guidance exceeds $700 billion, a 4.5x increase from 2022, causing free cash flow to plummet (e.g., Amazon's fell 95%). To fund this, they are borrowing unprecedented sums through long-dated, multi-currency bonds (e.g., Alphabet's 100-year bond). The world's most conservative capital—pensions, insurers—is now funding Silicon Valley's most speculative bet. This shift makes these companies resemble heavy-asset industrials (railroads, utilities) rather than software firms, threatening their premium valuations. Historically, such infrastructure booms (railroads, fiber optics) followed a pattern: genuine technology, overbuilding fueled by competitive frenzy, aggressive debt financing, and a crash triggered by financial conditions—not technology failure. The infrastructure remained, but many original builders and financiers did not survive. The core gamble is a "time arbitrage": using cheap debt today to build scale and lock in customers before AI capabilities commoditize. They are betting that AI revenue will materialize before debt comes due. Their positions vary: Amazon is under immediate cash pressure; Meta's path to monetization is unclear; Alphabet has a robust core business buffer; Microsoft has the shortest path from infrastructure to revenue. The contract is set: the most risk-averse global capital has lent its time to Silicon Valley, awaiting a future that is promised but uncertain.

marsbit6 min fa

Borrowing Money from a Hundred Years Later, Building Incomprehensible AI

marsbit6 min fa

The 'VVV' Concept Soars 9x in Half a Year, The New AI Narrative on Base Chain

"The article explores the 'VVV' concept as the new AI-focused narrative within the Base ecosystem, centered around the token $VVV of the privacy-focused, uncensored generative AI platform Venice, led by crypto veteran Erik Voorhees. Venice has seen significant growth in 2026, with its API users surging, partly attributed to exposure from OpenClaw. The platform now boasts over 2 million total users and 55,000 paid subscribers. Correspondingly, the $VVV token price has risen over 9x this year. Key to its performance are tokenomics designed for value accrual: reduced annual emissions, subscription revenue used for buyback-and-burn, and a unique staking mechanism. Staking $VVV yields $sVVV, which can be used to mint $DIEM tokens. Each staked $DIEM provides a daily $1 credit for using Venice's API services, creating tangible utility. The article also highlights other tokens associated with the 'VVV' narrative. $POD, the token of distributed AI network Dolphin (which co-developed Venice's default AI model), saw a massive price surge. $cyb3rwr3n, a project for a Venice credit auction market, gained attention due to perceived connections to Venice's team despite official denials. Finally, $SR of robotics platform STRIKEROBOT.AI rose after announcing a partnership with Venice for robot vision-language model development. Overall, the 'VVV' ecosystem combines AI platform growth, deflationary tokenomics, and innovative utility mechanisms, driving significant investor interest and price action in related tokens."

marsbit15 min fa

The 'VVV' Concept Soars 9x in Half a Year, The New AI Narrative on Base Chain

marsbit15 min fa

Anthropic and OpenAI Have Single-Handedly Severed the Logic of Pre-IPO Stock Tokenization

The pre-IPO stock token market is experiencing significant turmoil following strong statements from AI giants Anthropic and OpenAI. Both companies have updated their official policies, declaring that any transfer of their company shares—including sales, transfers, or assignments of share interests—without prior board approval is "invalid" and will not be recognized in their corporate records. This means buyers in such unauthorized transactions would not be recognized as shareholders and would have no shareholder rights. A major point of contention is the use of Special Purpose Vehicles (SPVs), which are legal entities commonly used by pre-IPO token platforms to pool investor funds and indirectly acquire shares from employees or early investors. The companies explicitly state they do not permit SPVs to acquire their shares, and any such transfer violates their restrictions. They warn that third parties selling shares through SPVs, direct sales, forward contracts, or stock tokens are likely engaged in fraud or are offering worthless investments due to these transfer limits. This stance directly threatens the core model of many pre-IPO token platforms, which rely on SPV structures. The announcement revealed additional risks within this model, such as complex "SPV-within-SPV" layering that obscures legal transparency, increases management fees, and creates a chain reaction risk of invalidation. Following the news, tokens like ANTHROPIC and OPENAI on platforms like PreStocks fell sharply (over 20%). The market reaction highlights a divergence: while asset-backed pre-IPO tokens plummeted, purely speculative pre-IPO futures contracts, which are bilateral bets on future IPO prices with no claim to actual shares, remained relatively stable as they are unaffected by the transfer restrictions. The industry is split on the implications. Some believe the fundamental logic of pre-IPO token trading is broken if leading companies reject SPV-held shares, potentially causing a domino effect. Others, like Rivet founder Nick Abouzeid, argue that buyers of such unofficial tokens always knowingly accepted the risk of non-recognition by the company. The statements serve as a stark risk warning and a corrective measure for a market where valuations for some AI-related pre-IPO tokens had soared to irrational levels, far exceeding recent funding round valuations.

marsbit1 h fa

Anthropic and OpenAI Have Single-Handedly Severed the Logic of Pre-IPO Stock Tokenization

marsbit1 h fa

Anthropic and OpenAI Personally Sever the Logic of Pre-IPO Crypto-Stocks

The pre-IPO token market has been rocked by strong statements from Anthropic and OpenAI. Both AI giants have updated official warnings, declaring that any sale or transfer of their company shares without explicit board approval is "invalid" and will not be recognized on their corporate records. This directly targets Special Purpose Vehicles (SPVs), the common legal structure used by pre-IPO token platforms. These platforms typically use an SPV to acquire shares from employees or early investors, then issue blockchain-based tokens representing a claim on the SPV's economic benefits. Anthropic and OpenAI's position means that if an SPV's share purchase lacked authorization, the underlying asset could be deemed worthless, nullifying the token's value. Anthropic explicitly warned that any third party selling its shares—via direct sales, forwards, or tokens—is likely fraudulent or offering a valueless investment. The crackdown highlights risks in the popular SPV model, including complex multi-layered "Russian doll" SPV structures that obscure legal ownership, add fees, and concentrate risk. If one layer is invalidated, the entire chain could collapse. Following the announcements, tokens like ANTHROPIC and OPENAI on platforms like PreStocks fell sharply (over 20%). In contrast, purely speculative pre-IPO prediction contracts remained stable, as they involve no actual share ownership. The move is seen as a corrective measure amid a market frenzy where some pre-IPO token valuations (e.g., Anthropic's token hitting a $1.4 trillion implied valuation) far exceeded recent official funding rounds. Opinions are split: some believe this undermines the core logic of pre-IPO token trading if top companies reject SPVs, while others argue buyers always assumed this legal risk when accessing unofficial channels. The statements serve as a stark warning and a potential catalyst for market de-leveraging and clearer boundaries.

Odaily星球日报1 h fa

Anthropic and OpenAI Personally Sever the Logic of Pre-IPO Crypto-Stocks

Odaily星球日报1 h fa

The Waged Worker Driven to Poverty by AI Subscriptions

"AI Membership: The Hidden Cost Pushing Workers Toward 'Poverty'" The widespread corporate push for AI adoption is creating a hidden financial burden for employees. Companies, from giants like Alibaba to small firms, are mandating AI use, often tying token consumption to KPIs, but frequently refuse to cover the costs. Workers are forced to pay for subscriptions out of pocket to stay competitive and avoid being replaced. Front-end developer Long Shen spends up to 2000 RMB monthly on tools like Cursor and ChatGPT Plus, seeing it as a necessary 3% salary investment to handle 90% of his coding tasks. While it boosted his performance and led to promotions, he now faces idle time at work, pretending to be busy. Designer Peng Peng navigates strict company firewalls by using personal devices and accounts for AI image generation tools like Midjourney, spending hundreds monthly without reimbursement, while her boss demands faster, more numerous revisions. The pressure creates workplace anxiety and suspicion. Programmer Li Huahua, after a friend's experience of raised KPIs following AI success, fears being branded a "traitor" for using it yet worries about falling behind if she doesn't. The dynamic allows management to demand results without understanding the tools or covering expenses, treating employees like AI "agents." While some, like entrepreneur Jin Tu, find high value in paid AI, building entire systems and winning competitions, for most, it's a trap. Free tools like Kimi and Doubao are introducing fees, closing off alternatives. The initial efficiency gains individual advantage, but as AI becomes ubiquitous, the personal edge disappears, workloads increase, and a cycle of dependency begins. Workers like Long Shen realize they cannot maintain AI-generated code without AI, making stopping harder than continuing to pay. The tool promising liberation is instead becoming a compulsory, costly chain in the modern workplace.

marsbit2 h fa

The Waged Worker Driven to Poverty by AI Subscriptions

marsbit2 h fa

Trading

Spot
Futures

Articoli Popolari

Cosa è $S$

Comprendere SPERO: Una Panoramica Completa Introduzione a SPERO Mentre il panorama dell'innovazione continua a evolversi, l'emergere delle tecnologie web3 e dei progetti di criptovaluta gioca un ruolo fondamentale nel plasmare il futuro digitale. Un progetto che ha attirato l'attenzione in questo campo dinamico è SPERO, denotato come SPERO,$$s$. Questo articolo mira a raccogliere e presentare informazioni dettagliate su SPERO, per aiutare gli appassionati e gli investitori a comprendere le sue basi, obiettivi e innovazioni nei domini web3 e crypto. Che cos'è SPERO,$$s$? SPERO,$$s$ è un progetto unico all'interno dello spazio crypto che cerca di sfruttare i principi della decentralizzazione e della tecnologia blockchain per creare un ecosistema che promuove l'impegno, l'utilità e l'inclusione finanziaria. Il progetto è progettato per facilitare interazioni peer-to-peer in modi nuovi, fornendo agli utenti soluzioni e servizi finanziari innovativi. Al suo interno, SPERO,$$s$ mira a responsabilizzare gli individui fornendo strumenti e piattaforme che migliorano l'esperienza dell'utente nello spazio delle criptovalute. Questo include la possibilità di metodi di transazione più flessibili, la promozione di iniziative guidate dalla comunità e la creazione di percorsi per opportunità finanziarie attraverso applicazioni decentralizzate (dApps). La visione sottostante di SPERO,$$s$ ruota attorno all'inclusività, cercando di colmare le lacune all'interno della finanza tradizionale mentre sfrutta i vantaggi della tecnologia blockchain. Chi è il Creatore di SPERO,$$s$? L'identità del creatore di SPERO,$$s$ rimane piuttosto oscura, poiché ci sono risorse pubblicamente disponibili limitate che forniscono informazioni dettagliate sul suo fondatore o fondatori. Questa mancanza di trasparenza può derivare dall'impegno del progetto per la decentralizzazione—un ethos che molti progetti web3 condividono, dando priorità ai contributi collettivi rispetto al riconoscimento individuale. Centrando le discussioni attorno alla comunità e ai suoi obiettivi collettivi, SPERO,$$s$ incarna l'essenza dell'empowerment senza mettere in evidenza individui specifici. Pertanto, comprendere l'etica e la missione di SPERO rimane più importante che identificare un creatore singolo. Chi sono gli Investitori di SPERO,$$s$? SPERO,$$s$ è supportato da una varietà di investitori che vanno dai capitalisti di rischio agli investitori angelici dedicati a promuovere l'innovazione nel settore crypto. Il focus di questi investitori generalmente si allinea con la missione di SPERO—dando priorità a progetti che promettono avanzamenti tecnologici sociali, inclusività finanziaria e governance decentralizzata. Queste fondazioni di investitori sono tipicamente interessate a progetti che non solo offrono prodotti innovativi, ma contribuiscono anche positivamente alla comunità blockchain e ai suoi ecosistemi. Il supporto di questi investitori rafforza SPERO,$$s$ come un concorrente degno di nota nel dominio in rapida evoluzione dei progetti crypto. Come Funziona SPERO,$$s$? SPERO,$$s$ impiega un framework multifunzionale che lo distingue dai progetti di criptovaluta convenzionali. Ecco alcune delle caratteristiche chiave che sottolineano la sua unicità e innovazione: Governance Decentralizzata: SPERO,$$s$ integra modelli di governance decentralizzati, responsabilizzando gli utenti a partecipare attivamente ai processi decisionali riguardanti il futuro del progetto. Questo approccio favorisce un senso di proprietà e responsabilità tra i membri della comunità. Utilità del Token: SPERO,$$s$ utilizza il proprio token di criptovaluta, progettato per servire varie funzioni all'interno dell'ecosistema. Questi token abilitano transazioni, premi e la facilitazione dei servizi offerti sulla piattaforma, migliorando l'impegno e l'utilità complessivi. Architettura Stratificata: L'architettura tecnica di SPERO,$$s$ supporta la modularità e la scalabilità, consentendo un'integrazione fluida di funzionalità e applicazioni aggiuntive man mano che il progetto evolve. Questa adattabilità è fondamentale per mantenere la rilevanza nel panorama crypto in continua evoluzione. Coinvolgimento della Comunità: Il progetto enfatizza iniziative guidate dalla comunità, impiegando meccanismi che incentivano la collaborazione e il feedback. Nutrendo una comunità forte, SPERO,$$s$ può affrontare meglio le esigenze degli utenti e adattarsi alle tendenze di mercato. Focus sull'Inclusione: Offrendo basse commissioni di transazione e interfacce user-friendly, SPERO,$$s$ mira ad attrarre una base utenti diversificata, inclusi individui che potrebbero non aver precedentemente interagito nello spazio crypto. Questo impegno per l'inclusione si allinea con la sua missione generale di empowerment attraverso l'accessibilità. Cronologia di SPERO,$$s$ Comprendere la storia di un progetto fornisce preziose intuizioni sulla sua traiettoria di sviluppo e sui traguardi. Di seguito è riportata una cronologia suggerita che mappa eventi significativi nell'evoluzione di SPERO,$$s$: Fase di Concettualizzazione e Ideazione: Le idee iniziali che formano la base di SPERO,$$s$ sono state concepite, allineandosi strettamente con i principi di decentralizzazione e focus sulla comunità all'interno dell'industria blockchain. Lancio del Whitepaper del Progetto: Dopo la fase concettuale, è stato rilasciato un whitepaper completo che dettaglia la visione, gli obiettivi e l'infrastruttura tecnologica di SPERO,$$s$ per suscitare interesse e feedback dalla comunità. Costruzione della Comunità e Prime Interazioni: Sono stati effettuati sforzi attivi di outreach per costruire una comunità di early adopters e potenziali investitori, facilitando discussioni attorno agli obiettivi del progetto e ottenendo supporto. Evento di Generazione del Token: SPERO,$$s$ ha condotto un evento di generazione del token (TGE) per distribuire i propri token nativi ai primi sostenitori e stabilire una liquidità iniziale all'interno dell'ecosistema. Lancio della Prima dApp: La prima applicazione decentralizzata (dApp) associata a SPERO,$$s$ è stata attivata, consentendo agli utenti di interagire con le funzionalità principali della piattaforma. Sviluppo Continuo e Partnership: Aggiornamenti e miglioramenti continui alle offerte del progetto, inclusi partnership strategiche con altri attori nello spazio blockchain, hanno plasmato SPERO,$$s$ in un concorrente competitivo e in evoluzione nel mercato crypto. Conclusione SPERO,$$s$ rappresenta una testimonianza del potenziale del web3 e delle criptovalute di rivoluzionare i sistemi finanziari e responsabilizzare gli individui. Con un impegno per la governance decentralizzata, il coinvolgimento della comunità e funzionalità progettate in modo innovativo, apre la strada verso un panorama finanziario più inclusivo. Come per qualsiasi investimento nello spazio crypto in rapida evoluzione, si incoraggiano potenziali investitori e utenti a ricercare approfonditamente e a impegnarsi in modo riflessivo con gli sviluppi in corso all'interno di SPERO,$$s$. Il progetto mostra lo spirito innovativo dell'industria crypto, invitando a ulteriori esplorazioni delle sue innumerevoli possibilità. Mentre il percorso di SPERO,$$s$ è ancora in fase di sviluppo, i suoi principi fondamentali potrebbero effettivamente influenzare il futuro di come interagiamo con la tecnologia, la finanza e tra di noi in ecosistemi digitali interconnessi.

75 Totale visualizzazioniPubblicato il 2024.12.17Aggiornato il 2024.12.17

Cosa è $S$

Cosa è AGENT S

Agent S: Il Futuro dell'Interazione Autonoma in Web3 Introduzione Nel panorama in continua evoluzione di Web3 e criptovalute, le innovazioni stanno costantemente ridefinendo il modo in cui gli individui interagiscono con le piattaforme digitali. Uno di questi progetti pionieristici, Agent S, promette di rivoluzionare l'interazione uomo-computer attraverso il suo framework agentico aperto. Aprendo la strada a interazioni autonome, Agent S mira a semplificare compiti complessi, offrendo applicazioni trasformative nell'intelligenza artificiale (AI). Questa esplorazione dettagliata approfondirà le complessità del progetto, le sue caratteristiche uniche e le implicazioni per il dominio delle criptovalute. Cos'è Agent S? Agent S si presenta come un innovativo framework agentico aperto, progettato specificamente per affrontare tre sfide fondamentali nell'automazione dei compiti informatici: Acquisizione di Conoscenze Specifiche del Dominio: Il framework apprende in modo intelligente da varie fonti di conoscenza esterne ed esperienze interne. Questo approccio duale gli consente di costruire un ricco repository di conoscenze specifiche del dominio, migliorando le sue prestazioni nell'esecuzione dei compiti. Pianificazione su Lungo Orizzonte di Compiti: Agent S impiega una pianificazione gerarchica potenziata dall'esperienza, un approccio strategico che facilita la suddivisione e l'esecuzione efficiente di compiti complessi. Questa caratteristica migliora significativamente la sua capacità di gestire più sottocompiti in modo efficiente ed efficace. Gestione di Interfacce Dinamiche e Non Uniformi: Il progetto introduce l'Interfaccia Agente-Computer (ACI), una soluzione innovativa che migliora l'interazione tra agenti e utenti. Utilizzando Modelli Linguistici Multimodali di Grandi Dimensioni (MLLM), Agent S può navigare e manipolare senza sforzo diverse interfacce grafiche utente. Attraverso queste caratteristiche pionieristiche, Agent S fornisce un framework robusto che affronta le complessità coinvolte nell'automazione dell'interazione umana con le macchine, preparando il terreno per innumerevoli applicazioni nell'AI e oltre. Chi è il Creatore di Agent S? Sebbene il concetto di Agent S sia fondamentalmente innovativo, informazioni specifiche sul suo creatore rimangono elusive. Il creatore è attualmente sconosciuto, il che evidenzia sia la fase embrionale del progetto sia la scelta strategica di mantenere i membri fondatori sotto anonimato. Indipendentemente dall'anonimato, l'attenzione rimane sulle capacità e sul potenziale del framework. Chi sono gli Investitori di Agent S? Poiché Agent S è relativamente nuovo nell'ecosistema crittografico, informazioni dettagliate riguardanti i suoi investitori e sostenitori finanziari non sono documentate esplicitamente. La mancanza di approfondimenti pubblicamente disponibili sulle fondazioni di investimento o sulle organizzazioni che supportano il progetto solleva interrogativi sulla sua struttura di finanziamento e sulla roadmap di sviluppo. Comprendere il supporto è cruciale per valutare la sostenibilità del progetto e il suo potenziale impatto sul mercato. Come Funziona Agent S? Al centro di Agent S si trova una tecnologia all'avanguardia che gli consente di funzionare efficacemente in contesti diversi. Il suo modello operativo è costruito attorno a diverse caratteristiche chiave: Interazione Uomo-Computer Simile a Quella Umana: Il framework offre una pianificazione AI avanzata, cercando di rendere le interazioni con i computer più intuitive. Mimando il comportamento umano nell'esecuzione dei compiti, promette di elevare le esperienze degli utenti. Memoria Narrativa: Utilizzata per sfruttare esperienze di alto livello, Agent S utilizza la memoria narrativa per tenere traccia delle storie dei compiti, migliorando così i suoi processi decisionali. Memoria Episodica: Questa caratteristica fornisce agli utenti una guida passo-passo, consentendo al framework di offrire supporto contestuale mentre i compiti si sviluppano. Supporto per OpenACI: Con la capacità di funzionare localmente, Agent S consente agli utenti di mantenere il controllo sulle proprie interazioni e flussi di lavoro, allineandosi con l'etica decentralizzata di Web3. Facile Integrazione con API Esterne: La sua versatilità e compatibilità con varie piattaforme AI garantiscono che Agent S possa adattarsi senza problemi agli ecosistemi tecnologici esistenti, rendendolo una scelta attraente per sviluppatori e organizzazioni. Queste funzionalità contribuiscono collettivamente alla posizione unica di Agent S all'interno dello spazio crittografico, poiché automatizza compiti complessi e multi-fase con un intervento umano minimo. Man mano che il progetto evolve, le sue potenziali applicazioni in Web3 potrebbero ridefinire il modo in cui si svolgono le interazioni digitali. Cronologia di Agent S Lo sviluppo e le tappe di Agent S possono essere riassunti in una cronologia che evidenzia i suoi eventi significativi: 27 Settembre 2024: Il concetto di Agent S è stato lanciato in un documento di ricerca completo intitolato “Un Framework Agentico Aperto che Usa i Computer Come un Umano”, mostrando le basi per il progetto. 10 Ottobre 2024: Il documento di ricerca è stato reso pubblicamente disponibile su arXiv, offrendo un'esplorazione approfondita del framework e della sua valutazione delle prestazioni basata sul benchmark OSWorld. 12 Ottobre 2024: È stata rilasciata una presentazione video, fornendo un'idea visiva delle capacità e delle caratteristiche di Agent S, coinvolgendo ulteriormente potenziali utenti e investitori. Questi indicatori nella cronologia non solo illustrano i progressi di Agent S, ma indicano anche il suo impegno per la trasparenza e il coinvolgimento della comunità. Punti Chiave su Agent S Man mano che il framework Agent S continua a evolversi, diversi attributi chiave si distinguono, sottolineando la sua natura innovativa e il potenziale: Framework Innovativo: Progettato per fornire un uso intuitivo dei computer simile all'interazione umana, Agent S porta un approccio nuovo all'automazione dei compiti. Interazione Autonoma: La capacità di interagire autonomamente con i computer attraverso GUI segna un passo avanti verso soluzioni informatiche più intelligenti ed efficienti. Automazione di Compiti Complessi: Con la sua metodologia robusta, può automatizzare compiti complessi e multi-fase, rendendo i processi più veloci e meno soggetti a errori. Miglioramento Continuo: I meccanismi di apprendimento consentono ad Agent S di migliorare dalle esperienze passate, migliorando continuamente le sue prestazioni e la sua efficacia. Versatilità: La sua adattabilità attraverso diversi ambienti operativi come OSWorld e WindowsAgentArena garantisce che possa servire un'ampia gamma di applicazioni. Man mano che Agent S si posiziona nel panorama di Web3 e delle criptovalute, il suo potenziale per migliorare le capacità di interazione e automatizzare i processi segna un significativo avanzamento nelle tecnologie AI. Attraverso il suo framework innovativo, Agent S esemplifica il futuro delle interazioni digitali, promettendo un'esperienza più fluida ed efficiente per gli utenti in vari settori. Conclusione Agent S rappresenta un audace passo avanti nell'unione tra AI e Web3, con la capacità di ridefinire il modo in cui interagiamo con la tecnologia. Sebbene sia ancora nelle sue fasi iniziali, le possibilità per la sua applicazione sono vaste e coinvolgenti. Attraverso il suo framework completo che affronta sfide critiche, Agent S mira a portare le interazioni autonome al centro dell'esperienza digitale. Man mano che ci addentriamo nei regni delle criptovalute e della decentralizzazione, progetti come Agent S giocheranno senza dubbio un ruolo cruciale nel plasmare il futuro della tecnologia e della collaborazione uomo-computer.

504 Totale visualizzazioniPubblicato il 2025.01.14Aggiornato il 2025.01.14

Cosa è AGENT S

Come comprare S

Benvenuto in HTX.com! Abbiamo reso l'acquisto di Sonic (S) semplice e conveniente. Segui la nostra guida passo passo per intraprendere il tuo viaggio nel mondo delle criptovalute.Step 1: Crea il tuo Account HTXUsa la tua email o numero di telefono per registrarti il tuo account gratuito su HTX. Vivi un'esperienza facile e sblocca tutte le funzionalità,Crea il mio accountStep 2: Vai in Acquista crypto e seleziona il tuo metodo di pagamentoCarta di credito/debito: utilizza la tua Visa o Mastercard per acquistare immediatamente SonicS.Bilancio: Usa i fondi dal bilancio del tuo account HTX per fare trading senza problemi.Terze parti: abbiamo aggiunto metodi di pagamento molto utilizzati come Google Pay e Apple Pay per maggiore comodità.P2P: Fai trading direttamente con altri utenti HTX.Over-the-Counter (OTC): Offriamo servizi su misura e tassi di cambio competitivi per i trader.Step 3: Conserva Sonic (S)Dopo aver acquistato Sonic (S), conserva nel tuo account HTX. In alternativa, puoi inviare tramite trasferimento blockchain o scambiare per altre criptovalute.Step 4: Scambia Sonic (S)Scambia facilmente Sonic (S) nel mercato spot di HTX. Accedi al tuo account, seleziona la tua coppia di trading, esegui le tue operazioni e monitora in tempo reale. Offriamo un'esperienza user-friendly sia per chi ha appena iniziato che per i trader più esperti.

918 Totale visualizzazioniPubblicato il 2025.01.15Aggiornato il 2025.03.21

Come comprare S

Discussioni

Benvenuto nella Community HTX. Qui puoi rimanere informato sugli ultimi sviluppi della piattaforma e accedere ad approfondimenti esperti sul mercato. Le opinioni degli utenti sul prezzo di S S sono presentate come di seguito.

活动图片