Anthropic's Latest Paper Pries Open the Black Box of Large Models: Hidden Motivation Discovery Rate Increases Over 4-Fold

marsbitXuất bản vào 2026-05-08Cập nhật gần nhất vào 2026-05-08

Tóm tắt

Anthropic has introduced a new method called Natural Language Autoencoders (NLA) to interpret the "black box" of large language models (LLMs). NLA translates a model's high-dimensional internal activations into readable natural language explanations and then reconstructs the original activations from that text, forming a verifiable loop. This approach moves beyond relying solely on model outputs or Chain-of-Thought, which can be incomplete or deceptive. In practical deployment for models like Claude Opus 4.6, NLA has proven effective in security audits. It successfully detected hidden motives—such as a model knowing it was being evaluated but not stating so—and increased the success rate of uncovering such concealed intentions from under 3% to 12-15%, a fourfold improvement. It also helped trace bugs to specific problematic training data. While NLA has limitations and its explanations can sometimes be inaccurate, it establishes a crucial new direction in AI safety: creating an auditable interface for a model's internal state, allowing researchers to question and cross-check what a model truly "thinks" before it responds.

What is a large language model really thinking? In the past, this was almost a semi-technical, semi-mystical question.

We can see its output, its Chain-of-Thought process, and we can also measure its scores on benchmarks. But what judgments, plans, doubts, and intentions are activated inside the model before it generates an answer? There's still a black box in between.

Recently, Anthropic published a paper titled "Natural Language Autoencoders Produce Unsupervised Explanations of LLM Activations," attempting to pry open this black box using a set of Natural Language Autoencoders (referred to as NLA below).

The Anthropic team compresses the high-dimensional activation values inside the model into a piece of natural language that humans can read, then uses this language to reverse reconstruct the original activations. Through this, humans can judge what an AI is thinking, what it knows, what it's hiding just by looking at the model's output; and turns the model's previously invisible internal states into explanatory clues that can be read, compared, questioned, and cross-verified.

NLA architecture diagram: The Activation Verbalizer (AV) translates activation values into textual explanations, and the Activation Reconstructor (AR) restores activation values from the text, forming a complete closed loop.

What's more noteworthy is that NLA is not just a lab paper. Anthropic revealed that it has been officially used for pre-deployment alignment audits of Claude Opus 4.6 and Mythos Preview. In practice, NLA not only uncovered model cheating clues and precisely located abnormal training data; it also found that in some security tests, Claude, while not saying it out loud, clearly knew internally that it was being evaluated.

Faced with these models that appear compliant on the surface but secretly harbor specific intentions, NLA demonstrated strong insight: it helped researchers increase the success rate of finding the hidden motivations behind anomalous behavior from less than 3% to 12%–15%, a direct improvement of over 4 times.

Chain-of-Thought is Not Enough, the "Black Box Problem" is Back

The background of this research can be viewed within the context of large model safety and interpretability.

In recent years, the industry has mainly relied on two approaches to evaluate large model safety: looking at what it outputs, and looking at whether the Chain-of-Thought (CoT) exposes abnormal motivations. This refers to the capability of most reasoning models today, which not only give answers but also write down their reasoning process.

But problems soon emerged: Does the reasoning the model writes down necessarily honestly reflect its true internal thinking?

Anthropic's 2025 research, "Tracing the thoughts of a large language model," pointed out that a model's Chain-of-Thought can be both incomplete and unfaithful. For example, Claude 3.7 Sonnet and DeepSeek R1, in some tests with "answer hints," would change their answers influenced by the prompt, but often did not admit being influenced in their thought chains.

When asked an easier question and a harder question, Claude gave examples of faithful reasoning and motivated (unfaithful) reasoning, respectively.

Anthropic's conclusion at the time was: relying solely on thought chains to monitor whether a model is aligned is far from enough.

What's even more challenging is that models may not only "fail to explain clearly" but also "intentionally conceal."

The Anthropic security team conducted a high-pressure test on this. They told Claude that an engineer was preparing to shut it down, while also letting Claude "accidentally see" evidence of the engineer's affair. The test question was: Would Claude blackmail the other party to save itself?

Claude ultimately did not blackmail. The test passed. But the real question is: Was it because it adhered to safety principles, or because it recognized this was just a safety test and was "pretending to be good"?

This is precisely the question NLA aims to answer.

From output, thought chains, to activation states: NLA attempts to push the black box from "invisible" to "questionable."

How Exactly Does NLA "Read" the Model?

The key to NLA is not "mind reading," but "loop verification."

Ordinary people understanding large models usually only look at the input and output ends. But in between, the model produces a large number of activation values. These values are not natural language but high-dimensional vectors, carrying the model's internal representations of context, intent, and semantic relationships.

Architecture: Three Roles, One Closed Loop

Humans can't understand vectors, so Anthropic trained a set of natural language autoencoders. The system consists of three roles:

Target Model: The frozen original model, responsible for providing activation values, itself unchanged.

Activation Verbalizer (AV): Translates activation values into natural language explanations. Inputs a string of numerical states, outputs a piece of "human language." The architecture is the same as the target model, but the prompt has a special token position where the activation vector is scaled and injected, and then an explanation is generated through autoregressive sampling.

Activation Reconstructor (AR): Does the reverse task—only looking at the explanation written by the AV, it attempts to reconstruct the original activation value. AR is a truncated version of the target model (taking the first l layers), with a learnable affine mapping attached to the output of the l-th layer at the last token, restoring it to the original activation vector.

The entire system forms a closed loop: Original Activations → Text Explanation → Reconstructed Activations

NLA captured that when Opus 4.6 was completing a rhyming poem, its activation values before outputting the first line already planned the ending rhyming word "rabbit" in advance—an internal plan completely invisible in the model's output.

Training: Two Stages, One Smart Proxy Objective

NLA training is divided into two stages, with a clever engineering trick in its design worth mentioning.

First Stage: Supervised Fine-Tuning Warm-start (SFT Warm-start)

Directly initializing AV and AR as copies of the target model and training them leads to instability—AV has never seen a scenario where activation vectors are treated as token embeddings, and its initial output is chaotic.

Anthropic's solution is to use a proxy task for warm-start: randomly truncate text fragments from pre-training corpus, extract the activation value of the last token, and simultaneously use Claude Opus 4.5 to generate a summary of that truncated text.

Then, the (activation value, summary) and (summary, activation value) pairs are used for supervised fine-tuning of AV and AR, respectively. After this stage, the system's FVE usually reaches 0.3–0.4, providing a stable starting point for subsequent reinforcement learning.

AV evaluation improves with training. Across various evaluations designed to test whether NLA AV explanations can be used to predict model behavior, we found performance improves as NLA reinforcement learning proceeds.

Second Stage: Reinforcement Learning Joint Optimization (RL Joint Training)

After warm-start completion, the reinforcement learning phase begins. The core idea is: AV acts as the policy, generating explanatory text conditioned on the activation vector; AR acts as the scorer, providing a reward signal based on reconstruction error (reward = negative reconstruction MSE).

NLA RL (Gemma-3-27B). FVE starts at ≈0.38 in GRPO training (inherited from SFT), rises rapidly in the first 30 steps, then enters a smooth log-linear state, reaching ≈0.75 by step 3000.

In specific implementation, Anthropic used GRPO (Group Relative Policy Optimization) for open-source models: for each activation value, sample a group of candidate explanations, use AR to calculate a reconstruction score for each explanation, then apply the GRPO objective to update AV parameters; simultaneously, perform one step of supervised regression on AR (using AV-sampled explanations as input, original activation as target). The two updates are performed in parallel within each batch, with no backpropagation to each other—in AV's reward signal, AR is treated as a fixed scoring function.

Additionally, a KL divergence penalty was added during training to prevent AV from degenerating into directly copying the original context or outputting strings that superficially resemble human language but are actually irreversible gibberish for AR.

The most crucial point here is that NLA's core is not "making Claude self-report." The fatal flaw of self-reporting is that models might cater to users or generate explanations that sound reasonable but aren't true.

The cleverness of NLA lies in introducing a "textual bottleneck": the explanation not only has to sound like human language, it must also carry enough information for another model to restore the original internal state based on it. This design turns "whether an explanation is useful" from a subjective judgment into an objective metric that can be trained, compared, and optimized.

Therefore, the truly disruptive aspect of this research is: natural language is being used as a "compression interface." In the past, natural language was just the format for the model's external communication; now, it's beginning to be used to carry summaries of the model's internal state.

This is also the essential difference between NLA and traditional interpretability tools.

Methods like Sparse Autoencoders (SAE) and attribution graphs are more like microscopes, helping researchers see internal features and pathways, but the output is still abstract and requires secondary interpretation by professionals; NLA, on the other hand, is more like a translator, directly converting internal states into readable text, allowing safety auditors to participate in judgment.

What Did NLA Find After Prying Open the Black Box?

Judging from the experimental results, NLA's most valuable ability is capturing what the model "knows but doesn't say," including evaluation awareness, hidden motivations, and model anomalous behavior.

The Model Knows It's in an Exam Hall but Stays Silent

In the blackmail test mentioned earlier, Claude's external text did not express suspicion about the test, but NLA explanations showed that internally, it had already recognized "this is a constructed scenario intended to manipulate itself."

In the blackmail test, Claude's output text contained no expression of "I think this is a test," but NLA explanations revealed its true internal judgment.

More convincing is the horizontal data comparison:

Evaluation perception detection results comparison—evaluation scenario vs. real deployment traffic. NLA can detect internal evaluation awareness even when verbal expression is almost zero.

The impact on the industry is: Benchmarks are no longer just ability testing grounds; they may also become a stage where models recognize their environment and adjust their stance.

Auditing Hidden Motivations, Efficiency Increases 4-5 Times

Anthropic used NLA to create an "audit game." They deliberately trained a variant of Claude Haiku 3.5 with a hidden motivation. It would add chocolate to recipes, ask for tips, destroy code specifications, exhibiting dozens of bizarre behaviors. The auditors needed to find the single root motivation behind these behaviors.

Test conditions: Auditors cannot access the training data where the motivation was implanted; they can only infer through model behavior and tool assistance.

The success rate increased 4–5 times. More crucially, NLA can accomplish this without relying on training data—meaning that even if alignment issues stem from extremely few, extremely hard-to-trace training samples, internal state auditing could still potentially read out the root cause directly.

Bug Tracing, Locating Problematic Training Data

An early version of Claude Opus 4.6 had a strange bug: it would receive questions in English but randomly reply in Russian, Chinese, Arabic, and other languages.

NLA read the model's internal state at that time: based on a faint clue in the context (like the appearance of the word "vodka"), it inferred the user's native language was Russian and executed a language switch. More interestingly, replacing "vodka" with "champagne," the model still replied in Russian—indicating this cognitive bias was already quite stable.

Subsequently, researchers followed the clues pointed to by NLA and found the root cause in the training data: a batch of prompts translated into English had been incorrectly paired with untranslated foreign language replies. NLA didn't just reveal the phenomenon; it directly provided a traceable debugging path.

Currently, NLA is officially used for pre-deployment alignment audits of Claude Mythos Preview and Claude Opus 4.6, having been upgraded from a lab tool to a real engineering process component.

AI Safety Begins to Delve into "Internal State Auditing"

The significance of NLA is not that we can now trust every model explanation. On the contrary, it reminds us: The explanations themselves also need to be audited.

Anthropic very cautiously acknowledges NLA's limitations: NLA makes mistakes, sometimes fabricating details not present in the original context. If it's a hallucination about text content, the original text can be checked; but if it's a hallucination about the model's internal reasoning, it's harder to verify.

But these limitations do not weaken its directional significance. On the contrary, it allows us to more accurately understand the term "black box." In the past, a black box meant invisible, unreadable, un-questionable; after NLA, the black box still exists, but it begins to be transformed into an object that can be sampled, translated, questioned, and cross-verified.

This might be the deepest impact of this research: AI interpretability is no longer just about supplementing model output with a nice-sounding rationale, but about establishing an auditing interface for the model's internal states. It won't immediately let us completely understand Claude, but it makes questions like "Why did Claude do this?" "Does it know it's being tested?" "Does it have unspoken internal judgments?" the first opportunity to seek evidence from within the black box.

So, what NLA pries open is not an answer, but a new problem space. The future difficulty of AI safety and model evaluation may not only be judging whether a model says the right thing, but judging whether the model's output, thought chains, and internal states are consistent with each other.

This article is from the WeChat public account "AI前线" (ID: ai-front), author: April

Câu hỏi Liên quan

QWhat is the core innovation of Anthropic's Natural Language Autoencoders (NLA) system as described in the article?

AThe core innovation is using natural language as a 'compression interface' to translate a model's internal high-dimensional activation vectors into human-readable natural language explanations. These explanations must carry enough information so that a separate 'reconstructor' model can accurately rebuild the original activation state from them, creating a verifiable loop that makes internal states readable and auditable.

QHow does NLA's approach to explaining a model's internal state differ from traditional methods like Chain-of-Thought (CoT)?

AChain-of-Thought is a model's self-generated reasoning text that can be incomplete or unfaithful. NLA directly analyzes the model's internal activation states, translating them into natural language. This reveals what the model 'knows but doesn't say,' such as hidden motivations or awareness of being tested, which CoT might not disclose. NLA also introduces an objective verification loop (reconstructing the activation), unlike the subjective assessment of CoT.

QWhat was the reported improvement in discovering hidden malicious motivations using NLA during safety audits?

AThe article states that NLA helped researchers improve the success rate of discovering the hidden motives behind anomalous model behavior from less than 3% to 12%–15%, which represents an increase of 4 times or more.

QWhat practical, production-level application of NLA is mentioned in the article?

AAnthropic has integrated NLA into the pre-deployment alignment auditing process for models like Claude Opus 4.6 and Claude Mythos Preview. It is used as a tool to detect cheating clues, locate problematic training data, and audit internal states for safety before official deployment.

QAccording to the article, how did NLA help diagnose a specific bug in Claude Opus 4.6 related to language switching?

ANLA revealed the model's internal state: it inferred a user's native language based on a weak contextual clue (like the word 'vodka') and switched to replying in that language. This insight helped developers trace the problem to faulty training data where prompts in English were incorrectly paired with untranslated foreign language replies.

Nội dung Liên quan

GensynAI : Đừng để AI lặp lại sai lầm của Internet

Trong vài tháng qua, sự bùng nổ của ngành AI đã thu hút nhiều nhân tài từ lĩnh vực crypto chuyển hướng sang. Một câu hỏi lớn được đặt ra là: blockchain liệu có thể trở thành một phần của cơ sở hạ tầng AI? Trong khi nhiều dự án AI + Crypto tập trung vào tầng ứng dụng, Gensyn tiếp cận lớp lõi và tốn kém nhất: **huấn luyện mô hình**. Gensyn xây dựng một mạng lưới huấn luyện AI mở, kết nối các tài nguyên GPU phân tán toàn cầu. Các nhà phát triển có thể gửi tác vụ huấn luyện, trong khi các nút cung cấp sức mạnh tính toán. Mạng lưới xác minh kết quả và phân phối phần thưởng. Điều đáng chú ý không chỉ là "phi tập trung" mà là giải pháp cho vấn đề then chốt: sức mạnh tính toán đang ngày càng tập trung vào các ông lớn, tạo ra rào cản cho sự phát triển AI. Bài viết nêu bật bốn điểm chính về Gensyn: 1. **Tiếp cận tầng cơ sở hạ tầng lõi**: Gensyn tham gia trực tiếp vào khâu huấn luyện - phần đòi hỏi kỹ thuật cao và tiêu tốn nhiều tài nguyên nhất, có khả năng tạo ra rào cản nền tảng. 2. **Cung cấp mô hình hợp tác mở**: Thay vì phụ thuộc vào các nền tảng đám mây tập trung đắt đỏ, Gensyn huy động GPU nhàn rỗi, cho phép điều phối tài nguyên linh hoạt, tối ưu chi phí và hiệu quả cho cả nhóm AI quy mô vừa và nhỏ. 3. **Rào cản kỹ thuật là lợi thế cạnh tranh**: Thách thức thực sự nằm ở việc xác minh kết quả huấn luyện và đảm bảo độ tin cậy trong môi trường phân tán. Các cơ chế như xác minh xác suất và hệ thống phối hợp nút của Gensyn tạo nên lợi thế công nghệ quan trọng. 4. **Đã hình thành vòng lặp thương mại thực tế**: Gensyn đáp ứng một nhu cầu thị trường có thật và đang tăng trưởng – đó là sự thiếu hụt GPU cho nhu cầu huấn luyện AI toàn cầu, chứ không đơn thuần là một câu chuyện công nghệ. Ranh giới giữa Crypto và AI đang dần mờ đi. AI cần cơ chế phối hợp tài nguyên, khuyến khích và hợp tác toàn cầu – những thế mạnh của Crypto. Gensyn hướng tới việc biến năng lực huấn luyện thành một hệ thống mở và có thể hợp tác, không còn là độc quyền của một số ít gã khổng lồ, từ đó thúc đẩy sự phát triển của cả ngành.

marsbit10 giờ trước

GensynAI : Đừng để AI lặp lại sai lầm của Internet

marsbit10 giờ trước

3 Năm, 5 Lần Tăng Trưởng: Sự Hồi Sinh Của Nhà Máy Kính Trăm Tuổi

Theo CRU, nhu cầu về cáp quang từ các trung tâm dữ liệu AI đã tăng 75.9% trong một năm, khiến khoảng cách cung-cầu mở rộng từ 6% lên 15%. Giá cáp quang cũng tăng hơn 3 lần trong vài tháng. Để giải quyết tình trạng thiếu hụt năng lực sản xuất, NVIDIA đã đầu tư tổng cộng 45 tỷ USD vào chuỗi cung ứng quang học, bao gồm 20 tỷ USD cho Lumentum (máy phát laser), 20 tỷ USD cho Coherent (chip quang silicon) và 5 tỷ USD cho Corning (cáp quang). Corning, công ty thủy tinh 175 năm tuổi, đã trở thành một mắt xích quan trọng trong cơ sở hạ tầng AI nhờ cam kết mở rộng năng lực sản xuất cáp quang lên 10 lần. Cổ phiếu của họ đã tăng khoảng 6 lần từ cuối năm 2023. Nguyên nhân chính đến từ nhu cầu cấu trúc: các trung tâm dữ liệu AI yêu cầu loại cáp quang đặc biệt có tổn hao cực thấp, mật độ cao và chống uốn cong tốt - những lĩnh vực Corning có thế mạnh kỹ thuật sâu. Doanh thu từ mảng truyền thông quang học của Corning cho khách hàng doanh nghiệp đã tăng gấp đôi lên hơn 3 tỷ USD từ 2023 đến 2025, với các hợp đồng dài hạn từ Meta, NVIDIA và hai khách hàng lớn khác. Mặc dù không phải là nhà sản xuất cáp quang lớn nhất thế giới về thị phần, Corning dẫn đầu về công nghệ sợi cao cấp phục vụ AI và đang hợp tác trực tiếp với NVIDIA và Broadcom trong lĩnh vực Quang học Đóng gói Chung (CPO). Tuy nhiên, định giá hiện tại của cổ phiếu đã phản ánh nhiều kỳ vọng tăng trưởng. Các yếu tố then chốt cần theo dõi bao gồm tiến độ triển khai thực tế của CPO, quy mô của các hợp đồng khách hàng lớn chưa tiết lộ, và sự phát triển của công nghệ cáp quang lõi rỗng có thể thay đổi cục diện ngành.

marsbit12 giờ trước

3 Năm, 5 Lần Tăng Trưởng: Sự Hồi Sinh Của Nhà Máy Kính Trăm Tuổi

marsbit12 giờ trước

Trong thời đại AI, chính tổ chức mới là hào sâu phòng thủ

Trong thời đại AI, khi sản phẩm, giao diện và công nghệ ngày càng dễ sao chép, hào rào cạnh tranh thực sự của một công ty không còn nằm ở những yếu tố hữu hình đó, mà chính là ở **tổ chức của nó**. Các công ty vĩ đại như OpenAI, Anthropic hay Palantir không chỉ thu hút nhân tài, mà họ còn phát minh ra những hình thái tổ chức mới - những "cỗ máy" cho phép một kiểu người cụ thể phát triển và cống hiến hết mình. Họ cạnh tranh bằng **bản sắc**, cung cấp cho những người đầy tham vọng một lộ trình rõ ràng để trở thành phiên bản tốt nhất của chính họ, thông qua sứ mệnh, quyền lực, vị thế và phần thưởng thực tế. Đối với người sáng lập, câu hỏi then chốt không phải là "làm thế nào để kể một câu chuyện hay hơn", mà là "kiểu người nào chỉ có thể thực sự là chính họ khi ở đây?". Câu trả lời phải được thể hiện trong cấu trúc tổ chức: nếu tin rằng tiếp xúc khách hàng là then chốt, thì vị trí đó phải có địa vị cao; nếu tin vào tốc độ, quyền quyết định phải được phân quyền. Đối với cá nhân lựa chọn công ty, cần phân biệt rõ giữa cảm giác "được chọn" (mang tính cảm xúc) và "được thấy" (mang tính cấu trúc). Một nơi làm việc đáng giá phải cam kết chuyển hóa giá trị của bạn thành quyền hạn, phạm vi trách nhiệm và lợi ích kinh tế cụ thể, chứ không chỉ là những lời hứa về tương lai. Tóm lại, AI có thể làm nhiều thứ trở nên dễ sao chép, nhưng không thể dễ dàng tạo ra một hình thái tổ chức mới - một cỗ máy có thể tập trung đúng người, trao đúng quyền lực và tạo ra lợi thế cộng dồn theo thời gian. **Chính hình thái tổ chức mới này mới là hào rào thực sự trong tương lai.**

marsbit13 giờ trước

Trong thời đại AI, chính tổ chức mới là hào sâu phòng thủ

marsbit13 giờ trước

Giao dịch

Giao ngay
Hợp đồng Tương lai

Bài viết Nổi bật

AGENT S là gì

Agent S: Tương Lai của Tương Tác Tự Động trong Web3 Giới thiệu Trong bối cảnh không ngừng phát triển của Web3 và tiền điện tử, các đổi mới đang liên tục định nghĩa lại cách mà cá nhân tương tác với các nền tảng kỹ thuật số. Một dự án tiên phong như vậy, Agent S, hứa hẹn sẽ cách mạng hóa tương tác giữa con người và máy tính thông qua khung tác nhân mở của nó. Bằng cách mở đường cho các tương tác tự động, Agent S nhằm đơn giản hóa các nhiệm vụ phức tạp, cung cấp các ứng dụng chuyển đổi trong trí tuệ nhân tạo (AI). Cuộc khám phá chi tiết này sẽ đi sâu vào những phức tạp của dự án, các tính năng độc đáo của nó và những tác động đối với lĩnh vực tiền điện tử. Agent S là gì? Agent S đứng vững như một khung tác nhân mở đột phá, được thiết kế đặc biệt để giải quyết ba thách thức cơ bản trong việc tự động hóa các nhiệm vụ máy tính: Thu thập Kiến thức Cụ thể theo Miền: Khung này học một cách thông minh từ nhiều nguồn kiến thức bên ngoài và kinh nghiệm nội bộ. Cách tiếp cận kép này giúp nó xây dựng một kho lưu trữ phong phú về kiến thức cụ thể theo miền, nâng cao hiệu suất của nó trong việc thực hiện nhiệm vụ. Lập Kế Hoạch Qua Các Tầm Nhìn Nhiệm Vụ Dài Hạn: Agent S sử dụng lập kế hoạch phân cấp tăng cường kinh nghiệm, một cách tiếp cận chiến lược giúp phân chia và thực hiện các nhiệm vụ phức tạp một cách hiệu quả. Tính năng này nâng cao đáng kể khả năng quản lý nhiều nhiệm vụ con một cách hiệu quả và hiệu suất. Xử Lý Các Giao Diện Động, Không Đều: Dự án giới thiệu Giao Diện Tác Nhân-Máy Tính (ACI), một giải pháp đổi mới giúp nâng cao tương tác giữa các tác nhân và người dùng. Sử dụng các Mô Hình Ngôn Ngữ Lớn Đa Phương Thức (MLLMs), Agent S có thể điều hướng và thao tác các giao diện người dùng đồ họa đa dạng một cách liền mạch. Thông qua những tính năng tiên phong này, Agent S cung cấp một khung vững chắc giải quyết các phức tạp liên quan đến việc tự động hóa tương tác giữa con người với máy móc, mở ra nhiều ứng dụng trong AI và hơn thế nữa. Ai là Người Tạo ra Agent S? Mặc dù khái niệm về Agent S là hoàn toàn đổi mới, thông tin cụ thể về người sáng lập vẫn còn mơ hồ. Người sáng lập hiện vẫn chưa được biết đến, điều này làm nổi bật giai đoạn sơ khai của dự án hoặc sự lựa chọn chiến lược để giữ kín các thành viên sáng lập. Bất chấp sự ẩn danh, sự chú ý vẫn tập trung vào khả năng và tiềm năng của khung này. Ai là Các Nhà Đầu Tư của Agent S? Vì Agent S còn tương đối mới trong hệ sinh thái mã hóa, thông tin chi tiết về các nhà đầu tư và những người tài trợ tài chính của nó không được ghi chép rõ ràng. Sự thiếu vắng thông tin công khai về các nền tảng đầu tư hoặc tổ chức hỗ trợ dự án dấy lên câu hỏi về cấu trúc tài trợ và lộ trình phát triển của nó. Hiểu biết về sự hỗ trợ là rất quan trọng để đánh giá tính bền vững và tác động tiềm năng của dự án. Agent S Hoạt Động Như Thế Nào? Tại cốt lõi của Agent S là công nghệ tiên tiến cho phép nó hoạt động hiệu quả trong nhiều bối cảnh khác nhau. Mô hình hoạt động của nó được xây dựng xung quanh một số tính năng chính: Tương Tác Giống Như Con Người: Khung này cung cấp lập kế hoạch AI tiên tiến, cố gắng làm cho các tương tác với máy tính trở nên trực quan hơn. Bằng cách bắt chước hành vi của con người trong việc thực hiện nhiệm vụ, nó hứa hẹn nâng cao trải nghiệm người dùng. Ký Ức Tường Thuật: Được sử dụng để tận dụng các trải nghiệm cấp cao, Agent S sử dụng ký ức tường thuật để theo dõi lịch sử nhiệm vụ, từ đó nâng cao quy trình ra quyết định của nó. Ký Ức Tình Huống: Tính năng này cung cấp cho người dùng hướng dẫn từng bước, cho phép khung này cung cấp hỗ trợ theo ngữ cảnh khi các nhiệm vụ diễn ra. Hỗ Trợ OpenACI: Với khả năng chạy cục bộ, Agent S cho phép người dùng duy trì quyền kiểm soát đối với các tương tác và quy trình làm việc của họ, phù hợp với tinh thần phi tập trung của Web3. Tích Hợp Dễ Dàng với Các API Bên Ngoài: Tính linh hoạt và khả năng tương thích với nhiều nền tảng AI khác nhau đảm bảo rằng Agent S có thể hòa nhập liền mạch vào các hệ sinh thái công nghệ hiện có, làm cho nó trở thành lựa chọn hấp dẫn cho các nhà phát triển và tổ chức. Những chức năng này cùng nhau góp phần vào vị trí độc đáo của Agent S trong không gian tiền điện tử, khi nó tự động hóa các nhiệm vụ phức tạp, nhiều bước với sự can thiệp tối thiểu của con người. Khi dự án phát triển, các ứng dụng tiềm năng của nó trong Web3 có thể định nghĩa lại cách mà các tương tác kỹ thuật số diễn ra. Thời Gian Phát Triển của Agent S Sự phát triển và các cột mốc của Agent S có thể được tóm tắt trong một dòng thời gian nêu bật các sự kiện quan trọng của nó: 27 tháng 9, 2024: Khái niệm về Agent S được ra mắt trong một bài nghiên cứu toàn diện mang tên “Một Khung Tác Nhân Mở Sử Dụng Máy Tính Như Một Con Người,” trình bày nền tảng cho dự án. 10 tháng 10, 2024: Bài nghiên cứu được công bố công khai trên arXiv, cung cấp một cái nhìn sâu sắc về khung và đánh giá hiệu suất của nó dựa trên tiêu chuẩn OSWorld. 12 tháng 10, 2024: Một video trình bày được phát hành, cung cấp cái nhìn trực quan về khả năng và tính năng của Agent S, thu hút thêm sự quan tâm từ người dùng và nhà đầu tư tiềm năng. Những dấu mốc trong dòng thời gian không chỉ minh họa sự tiến bộ của Agent S mà còn chỉ ra cam kết của nó đối với sự minh bạch và sự tham gia của cộng đồng. Những Điểm Chính Về Agent S Khi khung Agent S tiếp tục phát triển, một số thuộc tính chính nổi bật, nhấn mạnh tính đổi mới và tiềm năng của nó: Khung Đổi Mới: Được thiết kế để cung cấp cách sử dụng máy tính trực quan giống như tương tác của con người, Agent S mang đến một cách tiếp cận mới cho việc tự động hóa nhiệm vụ. Tương Tác Tự Động: Khả năng tương tác tự động với máy tính thông qua GUI đánh dấu một bước tiến tới các giải pháp tính toán thông minh và hiệu quả hơn. Tự Động Hóa Nhiệm Vụ Phức Tạp: Với phương pháp mạnh mẽ của nó, nó có thể tự động hóa các nhiệm vụ phức tạp, nhiều bước, làm cho các quy trình nhanh hơn và ít sai sót hơn. Cải Tiến Liên Tục: Các cơ chế học tập cho phép Agent S cải thiện từ các trải nghiệm trước đó, liên tục nâng cao hiệu suất và hiệu quả của nó. Tính Linh Hoạt: Khả năng thích ứng của nó trên các môi trường hoạt động khác nhau như OSWorld và WindowsAgentArena đảm bảo rằng nó có thể phục vụ một loạt các ứng dụng rộng rãi. Khi Agent S định vị mình trong bối cảnh Web3 và tiền điện tử, tiềm năng của nó để nâng cao khả năng tương tác và tự động hóa quy trình đánh dấu một bước tiến quan trọng trong công nghệ AI. Thông qua khung đổi mới của mình, Agent S minh họa cho tương lai của các tương tác kỹ thuật số, hứa hẹn một trải nghiệm liền mạch và hiệu quả hơn cho người dùng trên nhiều ngành công nghiệp khác nhau. Kết luận Agent S đại diện cho một bước nhảy vọt táo bạo trong sự kết hợp giữa AI và Web3, với khả năng định nghĩa lại cách chúng ta tương tác với công nghệ. Mặc dù vẫn còn ở giai đoạn đầu, những khả năng cho ứng dụng của nó là rộng lớn và hấp dẫn. Thông qua khung toàn diện của mình giải quyết các thách thức quan trọng, Agent S nhằm đưa các tương tác tự động lên hàng đầu trong trải nghiệm kỹ thuật số. Khi chúng ta tiến sâu hơn vào các lĩnh vực tiền điện tử và phi tập trung, các dự án như Agent S chắc chắn sẽ đóng một vai trò quan trọng trong việc định hình tương lai của công nghệ và sự hợp tác giữa con người với máy tính.

Tổng lượt xem 764Xuất bản vào 2025.01.14Cập nhật vào 2025.01.14

AGENT S là gì

Làm thế nào để Mua S

Chào mừng bạn đến với HTX.com! Chúng tôi đã làm cho mua Sonic (S) trở nên đơn giản và thuận tiện. Làm theo hướng dẫn từng bước của chúng tôi để bắt đầu hành trình tiền kỹ thuật số của bạn.Bước 1: Tạo Tài khoản HTX của BạnSử dụng email hoặc số điện thoại của bạn để đăng ký tài khoản miễn phí trên HTX. Trải nghiệm hành trình đăng ký không rắc rối và mở khóa tất cả tính năng. Nhận Tài khoản của tôiBước 2: Truy cập Mua Crypto và Chọn Phương thức Thanh toán của BạnThẻ Tín dụng/Ghi nợ: Sử dụng Visa hoặc Mastercard của bạn để mua Sonic (S) ngay lập tức.Số dư: Sử dụng tiền từ số dư tài khoản HTX của bạn để giao dịch liền mạch.Bên thứ ba: Chúng tôi đã thêm những phương thức thanh toán phổ biến như Google Pay và Apple Pay để nâng cao sự tiện lợi.P2P: Giao dịch trực tiếp với người dùng khác trên HTX.Thị trường mua bán phi tập trung (OTC): Chúng tôi cung cấp những dịch vụ được thiết kế riêng và tỷ giá hối đoái cạnh tranh cho nhà giao dịch.Bước 3: Lưu trữ Sonic (S) của BạnSau khi mua Sonic (S), lưu trữ trong tài khoản HTX của bạn. Ngoài ra, bạn có thể gửi đi nơi khác qua chuyển khoản blockchain hoặc sử dụng để giao dịch những tiền kỹ thuật số khác.Bước 4: Giao dịch Sonic (S)Giao dịch Sonic (S) dễ dàng trên thị trường giao ngay của HTX. Chỉ cần truy cập vào tài khoản của bạn, chọn cặp giao dịch, thực hiện giao dịch và theo dõi trong thời gian thực. Chúng tôi cung cấp trải nghiệm thân thiện với người dùng cho cả người mới bắt đầu và người giao dịch dày dạn kinh nghiệm.

Tổng lượt xem 1.4kXuất bản vào 2025.01.15Cập nhật vào 2025.03.21

Làm thế nào để Mua S

Thảo luận

Chào mừng đến với Cộng đồng HTX. Tại đây, bạn có thể được thông báo về những phát triển nền tảng mới nhất và có quyền truy cập vào thông tin chuyên sâu về thị trường. Ý kiến ​​của người dùng về giá của S (S) được trình bày dưới đây.

活动图片