a16z: AI's 'Amnesia', Can Continuous Learning Cure It?

marsbitОпубліковано о 2026-04-25Востаннє оновлено о 2026-04-25

Анотація

The article "a16z: AI's 'Amnesia' – Can Continual Learning Cure It?" explores the limitations of current large language models (LLMs), which, like the protagonist in the film *Memento*, are trapped in a perpetual present—unable to form new memories after training. While methods like in-context learning (ICL), retrieval-augmented generation (RAG), and external scaffolding (e.g., chat history, prompts) provide temporary solutions, they fail to enable true internalization of new knowledge. The authors argue that compression—the core of learning during training—is halted at deployment, preventing models from generalizing, discovering novel solutions (e.g., mathematical proofs), or handling adversarial scenarios. The piece introduces *continual learning* as a critical research direction to address this, categorizing approaches into three paths: 1. **Context**: Scaling external memory via longer context windows, multi-agent systems, and smarter retrieval. 2. **Modules**: Using pluggable adapters or external memory layers for specialization without full retraining. 3. **Weights**: Enabling parameter updates through sparse training, test-time training, meta-learning, distillation, and reinforcement learning from feedback. Challenges include catastrophic forgetting, safety risks, and auditability, but overcoming these could unlock models that learn iteratively from experience. The conclusion emphasizes that while context-based methods are effective, true breakthroughs requ...

Original Author: Malika Aubakirova, Matt Bornstein, a16z crypto

Original Compilation: Deep Tide TechFlow

In Christopher Nolan's "Memento," the main character Leonard Shelby lives in a fragmented present. Brain damage has left him with anterograde amnesia, unable to form new memories. Every few minutes, his world resets, trapping him in an eternal "now," unable to remember what just happened or what will happen next. To survive, he tattoos words on his body and takes Polaroids, relying on these external props to replace the memory functions his brain can no longer perform.

Large language models live in a similar eternal present. After training ends, vast amounts of knowledge are frozen in their parameters; the model cannot form new memories or update its parameters based on new experiences. To compensate for this defect, we build a bunch of scaffolding for it: chat history acts as short-term sticky notes, retrieval systems serve as external notebooks, and system prompts are like tattoos on the body. But the model itself never truly internalizes this new information.

More and more researchers believe this is not enough. In-context learning (ICL) can solve problems, provided the answer (or fragments of the answer) already exists somewhere in the world. But for problems that require true discovery (like novel mathematical proofs), adversarial scenarios (like security attacks and defenses), or knowledge that is too implicit to be expressed in language, there is a strong argument that models need a way to directly write new knowledge and experience into their parameters after deployment.

In-context learning is temporary. True learning requires compression. Until we allow models to continuously compress, we might be stuck in the eternal present of "Memento." Conversely, if we can train models to learn their own memory architecture, rather than relying on external custom tools, we might unlock a whole new dimension of scaling.

This field of research is called continual learning. This concept is not new (see McCloskey and Cohen's 1989 paper), but we believe it is one of the most important research directions in AI today. The explosive growth of model capabilities over the past two to three years has made the gap between what models "know" and what they "can know" increasingly apparent. The purpose of this article is to share what we have learned from top researchers in this field, help clarify the different paths of continual learning, and promote the development of this topic within the startup ecosystem.

Note: This article was shaped by in-depth discussions with a group of excellent researchers, PhD students, and entrepreneurs who generously shared their work and insights in the field of continual learning. From theoretical foundations to the engineering realities of post-deployment learning, their insights have made this article much more solid than anything we could have written alone. Thank you for your time and ideas!

First, Let's Talk About Context

Before defending parameter-level learning (i.e., learning that updates model weights), it's necessary to acknowledge a fact: in-context learning does work. And there is a strong argument that it will continue to win.

The essence of a Transformer is a sequence-based next-token predictor conditioned on the input. Give it the right sequence, and you can get surprisingly rich behavior without ever touching the weights. This is why methods like context management, prompt engineering, instruction fine-tuning, and few-shot examples are so powerful. Intelligence is encapsulated in static parameters, and the manifested capabilities change dramatically based on what you feed into the context.

A recent in-depth article by Cursor on the scaling of autonomous programming agents is a good example: the model weights are fixed; what really makes the system run is the careful orchestration of context—what to put in, when to summarize, how to maintain a coherent state over hours of autonomous operation.

OpenClaw is another good example. It went viral not because of special model access (the underlying model is available to everyone), but because it extremely efficiently converted context and tools into a working state: tracking what you're doing, structuring intermediate outputs, deciding when to re-inject prompts, maintaining persistent memory of previous work. OpenClaw elevated the "shell design" of agents to the level of an independent discipline.

When prompt engineering first emerged, many researchers were skeptical that "just prompts" could become a serious interface. It seemed like a hack. But it is a native product of the Transformer architecture, requires no retraining, and automatically upgrades as models improve. As models get stronger, prompts get stronger. "Crude but native" interfaces often win because they are coupled directly to the underlying system, not fighting against it. So far, the trajectory of LLM development has followed this pattern.

State Space Models: Context on Steroids

As mainstream workflows shift from raw LLM calls to agent loops, in-context learning models are under increasing pressure. In the past, it was relatively rare for the context window to be completely filled. This usually happened when an LLM was asked to perform a long series of discrete tasks, and the application layer could trim and compress chat history in a straightforward way.

But for agents, a single task can consume a large portion of the total available context. Each step of an agent loop relies on the context passed from previous iterations. And they often fail after 20 to 100 steps because they "lose the thread": the context gets filled, coherence degrades, and they fail to converge.

Therefore, major AI labs are now investing significant resources (i.e., large-scale training runs) to develop models with ultra-long context windows. This is a natural path because it builds on what already works (in-context learning) and aligns with the industry's broader shift towards inference-time computation. The most common architecture involves interleaving fixed memory layers between standard attention heads, namely State Space Models (SSMs) and linear attention variants (collectively referred to as SSMs below). SSMs offer fundamentally better scaling curves in long-context scenarios.

Figure Caption: Scaling comparison of SSM vs. traditional attention mechanism

The goal is to help agents increase the number of coherent run steps by several orders of magnitude, from about 20 steps to about 20,000 steps, without losing the broad skills and knowledge provided by traditional Transformers. If successful, this would be a major breakthrough for long-running agents.

You could even view this approach as a form of continual learning: although the model weights aren't updated, an external memory layer that rarely needs resetting is introduced.

So, these non-parametric methods are real and powerful. Any evaluation of continual learning must start here. The question isn't whether today's context systems work—they do. The question is: have we already seen the ceiling, and can new methods take us further?

What Context Omits: The "Filing Cabinet Fallacy"

"What happened with AGI and pre-training is that, in a sense, they overshot... Humans are not AGI. Yes, humans do have a skill base, but humans lack a vast amount of knowledge. We rely on continual learning.

If I create a super-smart 15-year-old, he knows nothing. A good student, very eager to learn. You could say, go be a programmer, go be a doctor. Deployment itself would involve a process of learning, trial and error. It's a process, not throwing the finished product out there. — Ilya Sutskever"

Imagine a system with infinite storage space. The world's largest filing cabinet, every fact perfectly indexed, instantly retrievable. It can look up anything. Has it learned?

No. It was never forced to compress.

This is the core of our argument, referencing a point previously made by Ilya Sutskever: LLMs are essentially compression algorithms. During training, they compress the internet into parameters. Compression is lossy, and it is this lossiness that makes it powerful. Compression forces the model to find structure, generalize, and build representations that transfer across contexts. A model that memorizes all training samples is inferior to one that extracts underlying patterns. Lossy compression is learning itself.

Ironically, the mechanism that makes LLMs so powerful during training (compressing raw data into compact, transferable representations) is precisely what we stop them from doing after deployment. We halt compression at the moment of release, substituting it with external memory.

Of course, most agent shells compress context in some custom way. But doesn't the bitter lesson tell us that the model itself should learn this compression, directly and at scale?

Yu Sun shared an example to illustrate this debate: mathematics. Consider Fermat's Last Theorem. For over 350 years, no mathematician could prove it, not because they lacked the right literature, but because the solution was highly novel. The conceptual distance between existing mathematical knowledge and the final answer was too great.

When Andrew Wiles finally cracked it in the 1990s, he spent seven years working in near isolation, having to invent entirely new techniques to reach the answer. His proof relied on successfully bridging two different branches: elliptic curves and modular forms. Although Ken Ribet had previously shown that establishing this connection would automatically solve Fermat's Last Theorem, no one before Wiles possessed the theoretical tools to actually build that bridge. A similar argument can be made for Grigori Perelman's proof of the Poincaré conjecture.

The core question is: Do these examples prove that LLMs are missing something, some ability to update priors and engage in truly creative thinking? Or does this story恰恰证明恰恰相反——all human knowledge is just data available for training and recombination, and Wiles and Perelman merely demonstrate what LLMs could also do at a larger scale?

This question is empirical, and the answer is still uncertain. But we do know that there are many categories of problems where in-context learning fails today, and parameter-level learning could be useful. For example:

Figure Caption: Problem categories where in-context learning fails and parameter learning might succeed

More importantly, in-context learning can only handle things that can be expressed in language, while weights can encode concepts that prompts cannot convey in words. Some patterns are too high-dimensional, too implicit, too deeply structured to fit into context. For instance, the visual texture that distinguishes a benign artifact from a tumor in a medical scan, or the subtle audio fluctuations that define a speaker's unique rhythm—these patterns are not easily broken down into precise vocabulary.

Language can only approximate them. No prompt, no matter how long, can transmit these things; this kind of knowledge can only live in the weights. They reside in the latent space of learned representations, not in words. No matter how large the context window grows, there will always be knowledge that text cannot describe, knowledge that can only be carried by parameters.

This might explain why explicit "the robot remembers you" features (like ChatGPT's memory) often make users feel discomfort rather than delight. What users really want is not "recall," but "capability." A model that has internalized your behavioral patterns can generalize to new scenarios; a model that merely recalls your history cannot. The gap between "Here's what you wrote last time you replied to this email" (verbatim repetition) and "I understand your way of thinking well enough to anticipate what you need" is the gap between retrieval and learning.

Continual Learning Primer

There are multiple paths to continual learning. The dividing line is not "whether there is memory function," but: Where does compression happen? These paths exist on a spectrum, from no compression (pure retrieval, frozen weights), to full internal compression (weight-level learning, the model gets smarter), with an important middle ground (modules).

Figure Caption: Three paths of continual learning—Context, Modules, Weights

Context

On the context end, teams build smarter retrieval pipelines, agent shells, and prompt orchestration. This is the most mature category: infrastructure is proven, deployment paths are clear. The limitation is depth: context length.

A notable new direction: multi-agent architectures as a scaling strategy for context itself. If a single model is limited to a 128K token window, a coordinated group of agents—each holding its own context, focusing on a slice of the problem, communicating results—can approximate infinite working memory as a whole. Each agent does in-context learning within its own window; the system does aggregation. Karpathy's recent autoresearch project and Cursor's example of building a web browser are early cases. This is a purely non-parametric approach (no weight changes), but it significantly raises the ceiling of what context systems can do.

Modules

In the module space, teams build pluggable knowledge modules (compressed KV caches, adapter layers, external memory stores) that allow general models to specialize without retraining. An 8B model with the right module can match the performance of a 109B model on a target task, with a fraction of the memory footprint. The appeal is its compatibility with existing Transformer infrastructure.

Weights

On the weight update end, researchers are pursuing true parameter-level learning: sparse memory layers that update only relevant parameter segments, reinforcement learning loops that optimize the model from feedback, test-time training that compresses context into weights during inference. These are the deepest methods, and the hardest to deploy, but they truly allow the model to fully internalize new information or skills.

There are various specific mechanisms for parameter updates. Listing a few research directions:

Figure Caption: Overview of research directions in weight-level learning

Weight-level research covers multiple parallel tracks. Regularization and weight space methods have the longest history: EWC (Kirkpatrick et al., 2017) penalizes parameter changes based on their importance to previous tasks; weight interpolation (Kozal et al., 2024) mixes old and new weight configurations in parameter space, but both are relatively fragile at scale.

Test-time training, pioneered by Sun et al. (2020) and later developed into architectural primitives (TTT layers, TTT-E2E, TTT-Discover), takes a截然不同的 approach: perform gradient descent on test data, compressing new information into parameters at the moment it's needed.

Meta-learning asks: Can we train models that know "how to learn"? From MAML's few-shot-friendly parameter initialization (Finn et al., 2017) to Behrouz et al.'s Nested Learning (2025), which structures the model as a hierarchical optimization problem with modules operating on different time scales for fast adaptation and slow updates, inspired by biological memory consolidation.

Distillation retains knowledge of previous tasks by having a student model match frozen teacher checkpoints. LoRD (Liu et al., 2025) makes distillation efficient enough for continuous operation by simultaneously pruning the model and the replay buffer. Self-distillation (SDFT, Shenfeld et al., 2026) flips the source, using the model's own outputs under expert conditions as the training signal, bypassing the catastrophic forgetting of sequential fine-tuning.

Recursive self-improvement operates on similar lines: STaR (Zelikman et al., 2022) bootstraps reasoning能力 from self-generated reasoning chains; AlphaEvolve (DeepMind, 2025) discovered algorithmic optimizations that had gone unimproved for decades; Silver and Sutton's "Age of Experience" (2025) defines agent learning as a never-ending stream of continuous experience.

These research directions are converging. TTT-Discover has already融合 test-time training and RL-driven exploration. HOPE nests fast and slow learning loops within a single architecture. SDFT turns distillation into a fundamental operation for self-improvement. The boundaries between columns are blurring. The next generation of continual learning systems will likely combine multiple strategies: regularization for stability, meta-learning for speed, self-improvement for compound growth. A growing number of startups are betting on different layers of this tech stack.

Continual Learning Startup Landscape

The non-parametric end of the spectrum is the most well-known. Shell companies (Letta, mem0, Subconscious) build orchestration layers and scaffolding, managing what goes into the context window. External storage and RAG infrastructure (e.g., Pinecone, xmemory) provide the retrieval backbone. The data exists; the challenge is getting the right slice in front of the model at the right time. As context windows expand, the design space for these companies grows, especially on the shell side, where a new wave of startups is emerging to manage increasingly complex context strategies.

The parametric end is earlier and more diverse. Companies here are experimenting with some version of "post-deployment compression," allowing models to internalize new information in their weights. The paths roughly correspond to different bets on *how* models should learn after release.

Partial Compression: Learning Without Retraining. Some teams are building pluggable knowledge modules (compressed KV caches, adapter layers, external memory stores) that allow general models to specialize without touching the core weights. The common argument is: you get meaningful compression (not just retrieval), while keeping the stability-plasticity trade-off manageable because learning is isolated, not spread throughout the parameter space. An 8B model with the right module can match the performance of much larger models on target task. The advantage is composability: modules can be plugged and played with existing Transformer architectures, can be swapped or updated independently, with much lower experimentation cost than retraining.

RL and Feedback Loops: Learning from Signals. Other teams bet that the richest signal for post-deployment learning already exists in the deployment loop itself—user corrections, task success/failure, reward signals from real-world outcomes. The core idea is that the model should treat every interaction as a potential training signal, not just an inference request. This is highly analogous to how humans improve at their jobs: do work, get feedback, internalize what works. The engineering challenge is converting sparse, noisy, sometimes adversarial feedback into stable weight updates without catastrophic forgetting. But a model that can truly learn from deployment compounds value in ways context systems cannot.

Data-Centric: Learning from the Right Signals. A related but distinct bet is that the bottleneck is not the learning algorithm, but the training data and surrounding systems. These teams focus on curating, generating, or synthesizing the *right* data to drive continuous updates: the premise is that a model with high-quality, well-structured learning signals needs far fewer gradient steps to improve meaningfully. This dovetails naturally with feedback loop companies but emphasizes the upstream question: it's one thing if the model *can* learn, another what it *should* learn from and to what extent.

New Architectures: Designing Learning Capability from the Ground Up. The most radical bet argues that the Transformer architecture itself is the bottleneck, and continual learning requires fundamentally different computational primitives: architectures with continuous-time dynamics and built-in memory mechanisms. The argument here is structural: if you want a continually learning system, you should embed the learning mechanism into the underlying foundation.

Figure Caption: Continual Learning Startup Landscape

All major labs are also actively working within these categories. Some are exploring better context management and chain-of-thought reasoning, others are experimenting with external memory modules or sleep-time compute pipelines, and several stealth companies are pursuing new architectures. The field is early enough that no single approach has won yet, and given the breadth of use cases, there shouldn't be just one winner.

Why Naive Weight Updates Fail

Updating model parameters in a production environment triggers a cascade of failure modes that are not yet resolved at scale.

Figure Caption: Failure modes of naive weight updates

The engineering problems are well-documented. Catastrophic forgetting means a model sensitive enough to learn from new data will destroy existing representations—the stability-plasticity dilemma. Temporal decoupling refers to the fact that invariant rules and mutable state are compressed into the same set of weights; updating one corrupts the other. Logical integration fails because fact updates don't propagate to their corollaries: changes are confined to the token sequence level, not the semantic concept level. Unlearning is still impossible: there is no differentiable subtraction operation, so there is no precise surgical removal method for false or toxic knowledge.

There is a second class of problems that receives less attention. The current separation between training and deployment is not just an engineering convenience; it is a boundary for safety, auditability, and governance. Opening this boundary causes multiple things to go wrong simultaneously. Safety alignment can degrade unpredictably: even narrow fine-tuning on benign data can produce widespread misaligned behavior.

Continuous updates create an attack surface for data poisoning—a slow, persistent version of prompt injection, but it lives in the weights. Auditability collapses because a continuously updated model is a moving target, making version control, regression testing, or one-time certification impossible. Privacy risks intensify when user interactions are compressed into parameters, baking sensitive information into representations that are harder to filter than information in a retrieved context.

These are open problems, not fundamental impossibilities. Solving them is part of the continual learning research agenda, just like solving the core architectural challenges.

From "Memento" to True Memory

Leonard's tragedy in "Memento" is not that he can't function—in any given scene, he is resourceful, even brilliant. His tragedy is that he can never compound. Every experience remains external—a Polaroid, a tattoo, a note in someone else's handwriting. He can retrieve, but he cannot compress new knowledge.

As Leonard navigates this self-constructed maze, the line between truth and belief begins to blur. His condition doesn't just deprive him of memory; it forces him to constantly reconstruct meaning, making him both the detective and the unreliable narrator of his own story.

Today's AI operates under the same constraints. We have built very powerful retrieval systems: longer context windows, smarter shells, coordinated multi-agent swarms, and they work. But retrieval is not learning. A system that can look up any fact is not forced to find structure. It is not forced to generalize. The lossy compression that made training so powerful—the mechanism that turns raw data into transferable representations—is precisely what we turn off the moment we deploy.

The path forward is likely not a single breakthrough, but a layered system. In-context learning will remain the first line of adaptive defense: it is native, proven, and improving. Module mechanisms can handle the middle ground of personalization and domain specialization.

But for those truly difficult problems—discovery, adversarial adaptation, implicit knowledge that cannot be put into words—we may need to let models continue to compress experience into parameters after training. This means advances in sparse architectures, meta-learning objectives, and self-improvement loops. It might also require us to redefine what a "model" is: not a fixed set of weights, but an evolving system comprising its memory, its update algorithm, and its ability to abstract from its own experience.

The filing cabinet is getting bigger. But a bigger filing cabinet is still a filing cabinet. The breakthrough is to let the model do after deployment what made it powerful during training: compress, abstract, learn. We stand at the turning point from amnesiac models to models with a glimmer of experience. Otherwise, we'll be stuck in our own "Memento."

Пов'язані питання

QWhat is the core problem with current large language models (LLMs) regarding memory and learning after deployment, as discussed in the a16z article?

AThe core problem is that LLMs suffer from a form of 'amnesia' or an inability to form new memories after their initial training is complete. Their parameters are frozen, and they cannot internally update their knowledge based on new experiences. They rely on external scaffolds' like chat history (short-term sticky notes), retrieval systems (external notebooks), and system prompts (tattoos) to function, but the model itself never truly internalizes this new information.

QAccording to the article, what is 'continual Learning' and why is it considered a critical research direction in AI?

AContinual learning is the research field focused on enabling AI models to learn continuously and update their parameters (weights) after deployment, thereby internalizing new knowledge and experiences. It is considered critical because the gap between what a model 'knows' at release and what it 'could know' is becoming increasingly apparent. This ability is seen as essential for tackling problems requiring true discovery, adversarial scenarios, and internalizing knowledge that is too implicit to be expressed in language.

QWhat is the 'filing cabinet fallacy' argument presented in the article against relying solely on context learning (ICL)?

AThe 'filing cabinet fallacy' argues that a system with infinite storage and perfect retrieval (like a massive filing cabinet) does not constitute learning because it is never forced to perform compression. Compression, which is lossy, is what forces a model to find structure, generalize, and build transferable representations. Relying solely on context learning and external memory avoids this crucial compression step, preventing the model from truly learning and generalizing from new information after deployment.

QWhat are the three main paths or spectra of continual learning discussed in the article?

AThe three main paths on the continual learning spectrum are: 1. **Context:** Building smarter retrieval pipelines, agent shells, and prompt orchestration without updating model weights. 2. **Modules:** Using pluggable knowledge modules (compressed KV caches, adapter layers, external memory stores) to specialize a general model without full retraining. 3. **Weights:** Pursuing true parameter-level learning through methods like sparse memory layers, reinforcement learning loops from feedback, and test-time training to compress context into weights internally.

QWhat are some of the key challenges and failure modes associated with naively updating a model's weights in a production environment?

AKey challenges and failure modes include: - **Catastrophic Forgetting:** Updating on new data can destroy existing representations (the stability-plasticity dilemma). - **Temporal Decoupling:** Invariant rules and mutable state are compressed into the same weights; updating one can corrupt the other. - **Failure of Logical Integration:** Fact updates don't propagate to their logical corollaries. - **Safety & Security Risks:** Safety alignment can degrade unpredictably, creating a new attack surface for data poisoning. - **Auditability & Governance Collapse:** A continuously updated model is a moving target, making version control, regression testing, and certification difficult. - **Privacy Risks:** User interactions compressed into parameters can bake in sensitive information.

Пов'язані матеріали

Торгівля

Спот
Ф'ючерси

Популярні статті

Що таке $S$

Розуміння SPERO: Комплексний огляд Вступ до SPERO Оскільки ландшафт інновацій продовжує еволюціонувати, виникнення технологій web3 та криптовалютних проектів відіграє ключову роль у формуванні цифрового майбутнього. Один з проектів, який привернув увагу в цій динамічній сфері, — це SPERO, позначений як SPERO,$$s$. Ця стаття має на меті зібрати та представити детальну інформацію про SPERO, щоб допомогти ентузіастам та інвесторам зрозуміти його основи, цілі та інновації в рамках web3 та крипто-сектору. Що таке SPERO,$$s$? SPERO,$$s$ — це унікальний проект у криптопросторі, який прагне використати принципи децентралізації та технології блокчейн для створення екосистеми, що сприяє залученню, корисності та фінансовій інклюзії. Проект розроблений для полегшення взаємодії між користувачами новими способами, надаючи їм інноваційні фінансові рішення та послуги. У своїй основі SPERO,$$s$ прагне надати можливості індивідам, забезпечуючи інструменти та платформи, які покращують користувацький досвід у криптовалютному просторі. Це включає в себе можливість більш гнучких методів транзакцій, сприяння ініціативам, що підтримуються спільнотою, та створення шляхів для фінансових можливостей через децентралізовані додатки (dApps). Основна концепція SPERO,$$s$ обертається навколо інклюзивності, прагнучи зменшити розриви в традиційній фінансовій системі, використовуючи переваги технології блокчейн. Хто є творцем SPERO,$$s$? Особистість творця SPERO,$$s$ залишається дещо невідомою, оскільки є обмежені публічно доступні ресурси, що надають детальну інформацію про його засновників. Ця відсутність прозорості може бути наслідком зобов'язання проекту до децентралізації — етики, яку багато проектів web3 поділяють, ставлячи колективні внески вище за індивідуальне визнання. Зосереджуючи обговорення навколо спільноти та її колективних цілей, SPERO,$$s$ втілює суть наділення без виділення конкретних осіб. Таким чином, розуміння етики та місії SPERO є більш важливим, ніж ідентифікація єдиного творця. Хто є інвесторами SPERO,$$s$? SPERO,$$s$ підтримується різноманітними інвесторами, починаючи від венчурних капіталістів до ангельських інвесторів, які прагнуть сприяти інноваціям у крипто-секторі. Зосередження цих інвесторів зазвичай узгоджується з місією SPERO — пріоритет надається проектам, які обіцяють технологічний прогрес у суспільстві, фінансову інклюзію та децентралізоване управління. Ці інвесторські фонди зазвичай зацікавлені в проектах, які не лише пропонують інноваційні продукти, але й позитивно впливають на спільноту блокчейн та її екосистеми. Підтримка з боку цих інвесторів підкріплює SPERO,$$s$ як значного конкурента в швидко змінюваній сфері крипто-проектів. Як працює SPERO,$$s$? SPERO,$$s$ використовує багатогранну структуру, яка відрізняє його від традиційних криптовалютних проектів. Ось деякі ключові особливості, які підкреслюють його унікальність та інноваційність: Децентралізоване управління: SPERO,$$s$ інтегрує моделі децентралізованого управління, надаючи користувачам можливість активно брати участь у процесах прийняття рішень щодо майбутнього проекту. Цей підхід сприяє відчуттю власності та відповідальності серед членів спільноти. Корисність токена: SPERO,$$s$ використовує свій власний криптовалютний токен, розроблений для виконання різних функцій в екосистемі. Ці токени дозволяють здійснювати транзакції, отримувати винагороди та полегшувати послуги, що пропонуються на платформі, підвищуючи загальну залученість та корисність. Шарова архітектура: Технічна архітектура SPERO,$$s$ підтримує модульність та масштабованість, що дозволяє безперешкодно інтегрувати додаткові функції та додатки в міру розвитку проекту. Ця адаптивність є надзвичайно важливою для збереження актуальності в постійно змінюваному крипто-ландшафті. Залучення спільноти: Проект підкреслює ініціативи, що підтримуються спільнотою, використовуючи механізми, які стимулюють співпрацю та зворотний зв'язок. Підтримуючи сильну спільноту, SPERO,$$s$ може краще задовольняти потреби користувачів та адаптуватися до ринкових тенденцій. Фокус на інклюзію: Пропонуючи низькі комісії за транзакції та зручні інтерфейси, SPERO,$$s$ прагне залучити різноманітну базу користувачів, включаючи осіб, які раніше не брали участі в крипто-просторі. Це зобов'язання до інклюзії узгоджується з його загальною місією наділення через доступність. Хронологія SPERO,$$s$ Розуміння історії проекту надає важливі уявлення про його розвиток та етапи. Нижче наведено пропоновану хронологію, що відображає значні події в еволюції SPERO,$$s$: Етап концептуалізації та ідеації: Початкові ідеї, що стали основою SPERO,$$s$, були сформовані, тісно пов'язані з принципами децентралізації та фокусом на спільноті в індустрії блокчейн. Запуск білого паперу проекту: Після концептуального етапу був випущений комплексний білий папір, що детально описує бачення, цілі та технологічну інфраструктуру SPERO,$$s$, щоб залучити інтерес та зворотний зв'язок від спільноти. Створення спільноти та ранні залучення: Активні зусилля були спрямовані на створення спільноти ранніх прихильників та потенційних інвесторів, що полегшило обговорення цілей проекту та отримання підтримки. Подія генерації токенів: SPERO,$$s$ провів подію генерації токенів (TGE) для розподілу своїх рідних токенів серед ранніх прихильників та встановлення початкової ліквідності в екосистемі. Запуск початкового dApp: Перший децентралізований додаток (dApp), пов'язаний з SPERO,$$s$, став доступним, дозволяючи користувачам взаємодіяти з основними функціями платформи. Постійний розвиток та партнерства: Безперервні оновлення та вдосконалення пропозицій проекту, включаючи стратегічні партнерства з іншими учасниками блокчейн-простору, сформували SPERO,$$s$ у конкурентоспроможного та еволюціонуючого гравця на крипто-ринку. Висновок SPERO,$$s$ є свідченням потенціалу web3 та криптовалют для революціонізації фінансових систем та наділення індивідів. Завдяки зобов'язанню до децентралізованого управління, залучення спільноти та інноваційно спроектованих функцій, він прокладає шлях до більш інклюзивного фінансового ландшафту. Як і з будь-якими інвестиціями в швидко змінюваному крипто-просторі, потенційним інвесторам та користувачам рекомендується ретельно досліджувати та обдумано взаємодіяти з поточними подіями в SPERO,$$s$. Проект демонструє інноваційний дух крипто-індустрії, запрошуючи до подальшого дослідження його численних можливостей. Хоча подорож SPERO,$$s$ ще триває, його основні принципи можуть справді вплинути на майбутнє того, як ми взаємодіємо з технологією, фінансами та один з одним у взаємопов'язаних цифрових екосистемах.

73 переглядів усьогоОпубліковано 2024.12.17Оновлено 2024.12.17

Що таке $S$

Що таке AGENT S

Агент S: Майбутнє автономної взаємодії в Web3 Вступ У постійно змінюваному ландшафті Web3 та криптовалюти інновації постійно переосмислюють, як люди взаємодіють з цифровими платформами. Один з таких новаторських проектів, Агент S, обіцяє революціонізувати взаємодію людини з комп'ютером через свою відкриту агентну структуру. Прокладаючи шлях для автономних взаємодій, Агент S прагне спростити складні завдання, пропонуючи трансформаційні застосування в штучному інтелекті (ШІ). Це детальне дослідження заглиблюється в складності проекту, його унікальні особливості та наслідки для сфери криптовалюти. Що таке Агент S? Агент S є революційною відкритою агентною структурою, спеціально розробленою для вирішення трьох основних викликів в автоматизації комп'ютерних завдань: Набуття специфічних знань у галузі: Структура інтелектуально навчається з різних зовнішніх джерел знань та внутрішнього досвіду. Цей подвійний підхід дозволяє їй створити багатий репозиторій специфічних знань у галузі, покращуючи її продуктивність у виконанні завдань. Планування на довгих горизонтах завдань: Агент S використовує планування з підкріпленням досвіду, стратегічний підхід, який полегшує ефективний розподіл та виконання складних завдань. Ця функція значно підвищує її здатність ефективно та результативно управляти кількома підзавданнями. Обробка динамічних, неоднорідних інтерфейсів: Проект представляє Інтерфейс Агент-Комп'ютер (ACI), інноваційне рішення, яке покращує взаємодію між агентами та користувачами. Використовуючи багатомодальні великі мовні моделі (MLLMs), Агент S може безперешкодно орієнтуватися та маніпулювати різноманітними графічними інтерфейсами користувача. Завдяки цим новаторським функціям Агент S надає надійну структуру, яка вирішує складнощі, пов'язані з автоматизацією людської взаємодії з машинами, прокладаючи шлях для численних застосувань у ШІ та за його межами. Хто є творцем Агент S? Хоча концепція Агент S є фундаментально новаторською, конкретна інформація про його творця залишається невідомою. Творець наразі невідомий, що підкреслює або початкову стадію проекту, або стратегічний вибір зберегти засновників у таємниці. Незважаючи на анонімність, акцент залишається на можливостях та потенціалі структури. Хто є інвесторами Агент S? Оскільки Агент S є відносно новим у криптографічній екосистемі, детальна інформація про його інвесторів та фінансових спонсорів не задокументована. Відсутність публічно доступних відомостей про інвестиційні фонди або організації, що підтримують проект, викликає питання щодо його фінансової структури та дорожньої карти розвитку. Розуміння підтримки є критично важливим для оцінки стійкості проекту та потенційного впливу на ринок. Як працює Агент S? В основі Агент S лежить передова технологія, яка дозволяє йому ефективно функціонувати в різних умовах. Його операційна модель побудована навколо кількох ключових функцій: Взаємодія з комп'ютером, подібна до людської: Структура пропонує розширене планування ШІ, прагнучи зробити взаємодії з комп'ютерами більш інтуїтивними. Імітуючи людську поведінку при виконанні завдань, вона обіцяє підвищити досвід користувачів. Наративна пам'ять: Використовується для використання високорівневого досвіду, Агент S використовує наративну пам'ять для відстеження історій завдань, тим самим покращуючи свої процеси прийняття рішень. Епізодична пам'ять: Ця функція надає користувачам покрокові інструкції, дозволяючи структурі пропонувати контекстуальну підтримку в міру виконання завдань. Підтримка OpenACI: Завдяки можливості працювати локально, Агент S дозволяє користувачам зберігати контроль над своїми взаємодіями та робочими процесами, узгоджуючи з децентралізованою етикою Web3. Легка інтеграція з зовнішніми API: Його універсальність і сумісність з різними платформами ШІ забезпечують те, що Агент S може безперешкодно вписатися в існуючі технологічні екосистеми, роблячи його привабливим вибором для розробників та організацій. Ці функціональні можливості колективно сприяють унікальному положенню Агент S у крипто-просторі, оскільки він автоматизує складні, багатоступеневі завдання з мінімальним втручанням людини. У міру розвитку проекту його потенційні застосування в Web3 можуть переосмислити, як відбуваються цифрові взаємодії. Хронологія Агент S Розробка та етапи Агент S можуть бути узагальнені в хронології, яка підкреслює його значні події: 27 вересня 2024 року: Концепція Агент S була представлена в комплексній науковій статті під назвою “Відкрита агентна структура, яка використовує комп'ютери як людина”, що демонструє основи проекту. 10 жовтня 2024 року: Наукова стаття була опублікована на arXiv, пропонуючи детальне дослідження структури та її оцінки продуктивності на основі бенчмарку OSWorld. 12 жовтня 2024 року: Було випущено відеопрезентацію, що надає візуальне уявлення про можливості та особливості Агент S, ще більше залучаючи потенційних користувачів та інвесторів. Ці маркери в хронології не лише ілюструють прогрес Агент S, але й вказують на його прихильність до прозорості та залучення громади. Ключові моменти про Агент S У міру розвитку структури Агент S кілька ключових характеристик виділяються, підкреслюючи її новаторський характер та потенціал: Інноваційна структура: Розроблена для забезпечення інтуїтивного використання комп'ютерів, подібного до людської взаємодії, Агент S пропонує новий підхід до автоматизації завдань. Автономна взаємодія: Здатність автономно взаємодіяти з комп'ютерами через GUI означає стрибок до більш інтелектуальних та ефективних обчислювальних рішень. Автоматизація складних завдань: Завдяки своїй надійній методології він може автоматизувати складні, багатоступеневі завдання, роблячи процеси швидшими та менш схильними до помилок. Безперервне вдосконалення: Механізми навчання дозволяють Агенту S покращуватися на основі минулого досвіду, постійно підвищуючи свою продуктивність та ефективність. Універсальність: Його адаптивність до різних операційних середовищ, таких як OSWorld та WindowsAgentArena, забезпечує його здатність служити широкому спектру застосувань. Оскільки Агент S займає своє місце в ландшафті Web3 та криптовалюти, його потенціал покращити можливості взаємодії та автоматизувати процеси означає значний прогрес у технологіях ШІ. Завдяки своїй інноваційній структурі Агент S є прикладом майбутнього цифрових взаємодій, обіцяючи більш безперешкодний та ефективний досвід для користувачів у різних галузях. Висновок Агент S представляє собою сміливий крок вперед у поєднанні ШІ та Web3, з можливістю переосмислити, як ми взаємодіємо з технологією. Хоча проект все ще на ранніх стадіях, можливості для його застосування є величезними та переконливими. Завдяки своїй комплексній структурі, що вирішує критичні виклики, Агент S прагне вивести автономні взаємодії на передній план цифрового досвіду. У міру того, як ми заглиблюємося в сфери криптовалюти та децентралізації, проекти, подібні до Агент S, безсумнівно, відіграватимуть ключову роль у формуванні майбутнього технологій та співпраці людини з комп'ютером.

539 переглядів усьогоОпубліковано 2025.01.14Оновлено 2025.01.14

Що таке AGENT S

Як купити S

Ласкаво просимо до HTX.com! Ми зробили покупку Sonic (S) простою та зручною. Дотримуйтесь нашої покрокової інструкції, щоб розпочати свою криптовалютну подорож.Крок 1: Створіть обліковий запис на HTXВикористовуйте свою електронну пошту або номер телефону, щоб зареєструвати обліковий запис на HTX безплатно. Пройдіть безпроблемну реєстрацію й отримайте доступ до всіх функцій.ЗареєструватисьКрок 2: Перейдіть до розділу Купити крипту і виберіть спосіб оплатиКредитна/дебетова картка: використовуйте вашу картку Visa або Mastercard, щоб миттєво купити Sonic (S).Баланс: використовуйте кошти з балансу вашого рахунку HTX для безперешкодної торгівлі.Треті особи: ми додали популярні способи оплати, такі як Google Pay та Apple Pay, щоб підвищити зручність.P2P: Торгуйте безпосередньо з іншими користувачами на HTX.Позабіржова торгівля (OTC): ми пропонуємо індивідуальні послуги та конкурентні обмінні курси для трейдерів.Крок 3: Зберігайте свої Sonic (S)Після придбання Sonic (S) збережіть його у своєму обліковому записі на HTX. Крім того, ви можете відправити його в інше місце за допомогою блокчейн-переказу або використовувати його для торгівлі іншими криптовалютами.Крок 4: Торгівля Sonic (S)Легко торгуйте Sonic (S) на спотовому ринку HTX. Просто увійдіть до свого облікового запису, виберіть торгову пару, укладайте угоди та спостерігайте за ними в режимі реального часу. Ми пропонуємо зручний досвід як для початківців, так і для досвідчених трейдерів.

1.3k переглядів усьогоОпубліковано 2025.01.15Оновлено 2025.03.21

Як купити S

Обговорення

Ласкаво просимо до спільноти HTX. Тут ви можете бути в курсі останніх подій розвитку платформи та отримати доступ до професійної ринкової інформації. Нижче представлені думки користувачів щодо ціни S (S).

活动图片