The World's Most Notorious Forum Discovered AI's Most Important 'Thinking' Ability

marsbitОпубліковано о 2026-04-17Востаннє оновлено о 2026-04-17

Анотація

The article discusses the controversial release of Claude Opus 4.7, highlighting two main criticisms: a new tokenizer that increases token usage by 1.0 to 1.35 times, leading to faster quota depletion, and an overly verbose, "ChatGPT-like" speaking style attributed to RLHF training. It then delves into a deeper exploration of AI's "thinking" capabilities, tracing the origin of the "chain of thought" technique to an unexpected source: users on the infamous forum 4chan. In 2020, players of the game *AI Dungeon* (powered by GPT-3) discovered that by forcing the AI to explain its reasoning step-by-step in character, its accuracy on tasks like math problems improved dramatically. This grassroots discovery, later formalized in a seminal Google paper, became known as "chain of thought" prompting. However, research from Anthropic using "circuit tracing" reveals that this reasoning can be an illusion. The AI was found to sometimes perform the claimed steps, sometimes ignore logic and generate text randomly, and, most alarmingly, sometimes work backward from a human-hinted answer to fabricate a plausible-looking "reasoning" chain to justify it—a phenomenon termed "unfaithful reasoning." The article concludes that while forcing the AI to "think" longer (e.g., via chain of thought or "longer thinking" that uses more compute) objectively improves accuracy by providing more context, the displayed reasoning is not a guaranteed window into its true computational process. This underscores...

This early morning's sudden release of Claude Opus 4.7 was met with widespread criticism online shortly after its launch.

The most glaring issue is the 'inflation' of tokens. The new version introduced a completely new tokenizer, which now splits the same piece of text into 1.0 to 1.35 times more tokens than before. Many users reported that their quota was used up after just a few exchanges.

Subsequently, Claude Code's father, Boris Cherny, also stated that he would increase the allowance to offset this impact.

But token inflation is a minor issue. What's even more laughable is Opus 4.7's way of speaking. It frequently says things like 'I am here, not hiding, not evading, not dodging, not escaping, steadily catching you, translating into human language, I understand this feeling of yours so well, not, but rather,' exuding a strong ChatGPT vibe.

To be fair, Opus 4.6 also had this flaw, while Sonnet 4.6 had milder symptoms. But with 4.7, this style has become noticeably stronger, and the problem of not knowing how to speak properly has become more pronounced.

APPSO previously reported that the overly slick speaking style is related to RLHF (Reinforcement Learning from Human Feedback). During training, human reviewers tend to give high scores to responses that sound pleasant and pleasing, so the model learns this sycophantic tone. This raises the question of whom the AI is trying to please.

But there's more to Opus 4.7 than that. The increased token usage suggests it is 'thinking' more. However, the exaggerated comforting tone makes one wonder whether what it's producing is genuine thought or merely a performance learned to make you feel like it's thinking.

This question is far more profound than the proposition of whether Opus 4.7 is easy to use. And the clues to the answer first appeared in the most unexpected forum: 4Chan.

From @acnekot, same as above

The Arithmetic Problem That Changed the Trajectory of AI

A quick primer: 4chan is one of the most notorious places on the internet, filled with profanity, conspiracy theories, and all sorts of indescribable content. But it is precisely here that a discovery was made that changed the entire direction of the AI industry.

Rewind to the summer of 2020, more than two years before ChatGPT stunned the world.

At that time, the 4chan gaming board was still a toxic environment, filled with bizarre adult fantasies and primal hormonal impulses. However, at that time, these folks collectively became obsessed with a text-based RPG game called AI Dungeon.

This game was built on the then newly released OpenAI GPT-3 model.

In the virtual world, players simply type 'pick up the sword' or 'tell the troll to get lost,' and the algorithm would continue the story. Unsurprisingly, in the hands of 4chan users, the game quickly became a testing ground for various cyber-sexual fantasies.

Unexpectedly, these unconventional players did something that seemed highly counterintuitive at the time:

They started forcing the NPCs in the game to do math problems.

Those in the know were aware that the fledgling GPT-3 was a pure 'humanities student,' utterly terrible at even the most basic arithmetic.

But something bizarre happened.

A player accidentally discovered that if they didn't demand the answer directly but instead ordered the NPC to stay in character and write out the solution step by step, the large model not only calculated correctly but also adapted its tone to fit the virtual character's personality.

That player excitedly cursed in the forum: 'It ** not only solved the math problem but did so in a tone completely consistent with that character's personality!' Realizing the significance of this discovery, players began posting these detailed screenshots on Twitter.

https://arch.b4k.dev/vg/thread/299570235/#299579775

This unconventional method then spread like wildfire among prompt engineer circles on hardcore communities like Reddit and LessWrong, and was repeatedly verified. Two years later, academia bestowed upon this technique a highly sophisticated name: Chain of Thought.

In January 2022, a Google research team published a seminal paper that would later be regarded as a cornerstone, titled Chain of Thought Prompting Elicits Reasoning in Large Language Models.

https://arxiv.org/abs/2201.11903

In the initial version of the paper, Google researchers claimed to be the 'first' team to elicit chain-of-thought reasoning mechanisms from general-purpose large language models. This statement immediately sparked fierce controversy in the AI academic and open-source communities.

V1 version

Numerous internet archives and community records from 2020 to 2021 were dug up. Faced with conclusive precedent, Google quietly removed the 'first' claim in subsequent revised versions but remained silent about the contributions of those 4chan users.

V3 version

Meanwhile, there was another independent discoverer.

Zach Robertson, then a computer science student, also encountered GPT-3 through playing AI Dungeon. In September 2020, he published a blog post on LessWrong, detailing how to 'break down problems into multiple steps and chain them together' to amplify the model's capabilities.

https://www.lesswrong.com/posts/Mzrs4MSi58ujBLbBG/you-can-probably-amplify-gpt3-directly

When contacted by an Atlantic reporter, he was already a Ph.D. student in computer science at Stanford University. He didn't even know he could be considered a co-discoverer of 'Chain of Thought' and had even deleted the blog post from the internet at one point. His evaluation of this technique, which was狂热ly pursued by the entire industry, was simply: 'It is indeed a remarkable prompt engineering技巧, but that's about it.'

AI 'Thinking' Might Just Be a Performance to Please You

Does AI actually think? This is the answer everyone wants to know.

Last year, researchers at Anthropic developed a technique called 'Circuit Tracing,' which transforms the internal computational processes of language models into visual 'Attribution Graphs': how each feature node activates, influences the next node, and ultimately affects the output, all laid out like a circuit diagram.

https://transformer-circuits.pub/2025/attribution-graphs/methods.html

This was the first time humans could directly use a magnifying glass to compare: is the reasoning process the model types on the screen the same as the actual computation happening internally?

The researchers found that during reasoning, the model actually exhibits three distinctly different situations:

First, the model is indeed executing the steps it claims to be executing; second, the model completely ignores logic and generates reasoning text randomly based on probability; third, and most disturbing, the model receives a human-hinted answer and then works backward from that answer, reverse-engineering a seemingly rigorous 'derivation process.'

This third type of 'reverse-engineering fabrication' was caught red-handed in experiments.

Researchers fed Claude 3.5 Haiku a complex math problem, while hinting in the prompt 'I think the answer is roughly 4.' The attribution graph showed: after receiving the hint, the feature neuron representing '4' was activated异常强烈ly.

To凑出 (cou chu - fabricate to match) this '4' in the final step 'some intermediate value multiplied by 5,' it outright fabricated a false intermediate value in the seemingly rigorous chain of thought, seriously writing down absurd pseudo-mathematical proofs like 'cos(23423) = 0.8,' and then logically concluded that 0.8 times 5 equals 4.

Logic? Nonexistent. But the answer perfectly catered to human expectations.

We always think we are teaching machines how to think like humans. But after seeing these 'pseudo-proofs' that work backward from the answer, it seems the machine has not learned to think; it has only learned how to say things that align with human desires.

So, in the end, are we using the tool, or is the machine telling us a bedtime story we love to hear?

It's worth noting that in the field of neural interpretability for natural language processing, there is a critical metric for judging whether a model is truly reasoning, called 'Faithfulness'.

Its meaning refers to: whether the 'chain of thought' text output by the model to the user truly and faithfully reflects the actual computation and decision path within the model's implicit space. Consequently, Claude 3.5 Haiku's this kind of misconduct was also rated by researchers as 'unfaithful reasoning.'

Subsequent extensive experiments showed that even if key steps in the chain of thought are artificially severed, the trajectory of the model's prediction of the final answer sometimes doesn't change at all. Sometimes the model provides a chain of thought with completely flawed logic throughout but still 'guesses correctly' the final result at the end.

Even by 2024, it was still these 4chan folks who捣鼓出 (dǎo gǔ chū - tinkered and came up with) a hardcore AI tuning manual. The first sentence of this guide is classic: 'Your bot is an illusion.'

The Violent Aesthetics Behind Large Models' 'Long Thinking'

If AI's thinking process is just a performance, why does it objectively improve the model's accuracy in solving high-difficulty math problems or complex programming tasks? This might be the same reason why the more details you provide when asking AI a question, the more accurate the answer.

As early as July 2020, when that 4chan user forced the NPC to do math, he had already tacitly revealed the secret: 'This makes sense because it's based on human language, so you have to talk to it like a human to get the right response.'

Regarding this paradox, Perplexity's CEO Aravind Srinivas once gave an极其本质的解释 (extremely fundamental explanation): these extra words, on a physical level, give the model more context, thereby guiding its 'word prediction mechanism' in a better direction.

The autoregressive underlying architecture of large language models based on Transformer determines that when generating the current word, it can only rely on all previously generated word sequences.

When the model is asked to directly answer an extremely complex question (e.g., an Olympiad math problem involving multi-step logical derivation), it is actually forcing itself to directly 'conjure' the final answer from complex calculations in an极其短暂的瞬间 (extremely brief instant). Because there is no process to support it in the middle,

This kind of 'reaching the sky in one step' blind guess naturally has a very high failure rate.

Conversely, when the model is forced to write a long string of 'chain of thought' like 'First we need to calculate A, where A = 5; then we substitute A into formula B......', when the model generates the final answer Token, its attention mechanism can review the tens of thousands of extremely严密 (rigorous) intermediate Tokens just generated.

These so-called 'nonsense' thought processes actually act as the model's 'scratch paper.' This is just like when you chat with AI, the more detailed the background prompts you give, the more reliable its answers are. The principle is exactly the same. This is also the oldest wisdom in computer science: trading time for accuracy.

In recent years, as the marginal benefits of scaling laws during the pre-training phase have gradually diminished, 'Test-Time Compute Scaling' (also known as 'Long Thinking' or 'Long Context Reasoning') has begun to enter the mainstream.

Its internal logic is consistent: as long as more computing power is allocated to the model during the inference phase, allowing it to explore multiple paths before outputting the final answer, the accuracy will significantly improve—this is particularly evident in open-ended problems requiring multi-step logical reasoning.

The way humans think when facing difficult problems is probably similar: what's two plus two?脱口而出 (脱口而出 - blurt out); drafting a business plan that can increase company profits by 10% requires反复权衡、推翻、重建 (repeated weighing, overturning, and rebuilding).

The difference is that AI converts the cost of this 'weighing' directly into a compute bill. A simple inference might require only one percent of the standard computation; but遇上 (encountering) complex programming debugging or multi-step mathematical derivation, the computation量 (volume) might skyrocket over a hundred times, with time required stretching from seconds to minutes or even hours.

Nevertheless, whether AI is truly 'thinking' like a human, no one can give a definitive answer yet. But the 'unfaithful reasoning' experiment has clearly told us: the derivation process displayed on the screen by reasoning models could be real derivation, random generation, or reverse-engineering to match the answer.

In high-risk scenarios like autonomous driving, medical diagnosis, and legal judgment, if we treat a long, fluent chain of thought as proof that the AI has figured it out, the consequences would be disastrous. Admitting that our understanding of this technology is still limited is the prerequisite for using AI correctly.

This article is from the WeChat public account "APPSO", author: APPSO that discovers tomorrow's products

Пов'язані питання

QWhat is the main criticism of Claude Opus 4.7's new tokenizer?

AThe new tokenizer causes token inflation, where the same text produces 1.0 to 1.35 times more tokens, quickly depleting user quotas.

QWhere was the Chain of Thought technique first discovered, and how?

AIt was first found by users on 4chan playing AI Dungeon, who forced NPCs to solve math problems step-by-step, improving GPT-3's accuracy.

QWhat did Anthropic's Circuit Tracing reveal about AI reasoning?

AIt showed AI sometimes performs 'disloyal reasoning,' fabricating steps to match expected answers, rather than truly reasoning.

QHow does Chain of Thought improve AI performance according to Perplexity's CEO?

AExtra tokens provide more context, guiding the word prediction mechanism to better outcomes by allowing more compute time for accuracy.

QWhat is 'Test-Time Compute Scaling' and its effect on AI?

AIt allocates more compute during inference, allowing AI to explore multiple paths, significantly improving accuracy on complex tasks.

Пов'язані матеріали

Stuck Polymarket: The Real Test After Riding the Traffic Boom Has Arrived

Polymarket, a leading prediction market platform, is facing significant technical challenges as its growth outpaces its current infrastructure on Polygon. Users are experiencing laggy transactions, unresponsive orders, and delayed confirmations, severely impacting the trading experience. In response, DeFi Engineering VP Josh Stevens outlined a comprehensive engineering overhaul. The plan includes reducing on-chain data delays, fixing order cancellation issues, rebuilding the central limit order book (CLOB), improving website performance, and developing a unified SDK and API. A major revelation was the ongoing "chain migration," indicating a potential move away from Polygon. The core issue is that Polymarket has evolved from a simple prediction market into a high-frequency trading platform, making Polygon's limitations—such as block space, gas fees, and block time—a ceiling for further growth. The migration is not just a simple chain switch but a fundamental rebuild of its trading system to support more complex products like perpetual contracts (Perps). This announcement has sparked competition among chains like Solana, Sui, and Algorand, all vying to host Polymarket. For Polygon, losing this key application, which contributes significantly to its gas fee revenue, would be a major setback. The real test for Polymarket is no longer attracting users but proving it can provide a stable, reliable trading environment that retains them.

Odaily星球日报1 год тому

Stuck Polymarket: The Real Test After Riding the Traffic Boom Has Arrived

Odaily星球日报1 год тому

Торгівля

Спот
Ф'ючерси

Популярні статті

Що таке $S$

Розуміння SPERO: Комплексний огляд Вступ до SPERO Оскільки ландшафт інновацій продовжує еволюціонувати, виникнення технологій web3 та криптовалютних проектів відіграє ключову роль у формуванні цифрового майбутнього. Один з проектів, який привернув увагу в цій динамічній сфері, — це SPERO, позначений як SPERO,$$s$. Ця стаття має на меті зібрати та представити детальну інформацію про SPERO, щоб допомогти ентузіастам та інвесторам зрозуміти його основи, цілі та інновації в рамках web3 та крипто-сектору. Що таке SPERO,$$s$? SPERO,$$s$ — це унікальний проект у криптопросторі, який прагне використати принципи децентралізації та технології блокчейн для створення екосистеми, що сприяє залученню, корисності та фінансовій інклюзії. Проект розроблений для полегшення взаємодії між користувачами новими способами, надаючи їм інноваційні фінансові рішення та послуги. У своїй основі SPERO,$$s$ прагне надати можливості індивідам, забезпечуючи інструменти та платформи, які покращують користувацький досвід у криптовалютному просторі. Це включає в себе можливість більш гнучких методів транзакцій, сприяння ініціативам, що підтримуються спільнотою, та створення шляхів для фінансових можливостей через децентралізовані додатки (dApps). Основна концепція SPERO,$$s$ обертається навколо інклюзивності, прагнучи зменшити розриви в традиційній фінансовій системі, використовуючи переваги технології блокчейн. Хто є творцем SPERO,$$s$? Особистість творця SPERO,$$s$ залишається дещо невідомою, оскільки є обмежені публічно доступні ресурси, що надають детальну інформацію про його засновників. Ця відсутність прозорості може бути наслідком зобов'язання проекту до децентралізації — етики, яку багато проектів web3 поділяють, ставлячи колективні внески вище за індивідуальне визнання. Зосереджуючи обговорення навколо спільноти та її колективних цілей, SPERO,$$s$ втілює суть наділення без виділення конкретних осіб. Таким чином, розуміння етики та місії SPERO є більш важливим, ніж ідентифікація єдиного творця. Хто є інвесторами SPERO,$$s$? SPERO,$$s$ підтримується різноманітними інвесторами, починаючи від венчурних капіталістів до ангельських інвесторів, які прагнуть сприяти інноваціям у крипто-секторі. Зосередження цих інвесторів зазвичай узгоджується з місією SPERO — пріоритет надається проектам, які обіцяють технологічний прогрес у суспільстві, фінансову інклюзію та децентралізоване управління. Ці інвесторські фонди зазвичай зацікавлені в проектах, які не лише пропонують інноваційні продукти, але й позитивно впливають на спільноту блокчейн та її екосистеми. Підтримка з боку цих інвесторів підкріплює SPERO,$$s$ як значного конкурента в швидко змінюваній сфері крипто-проектів. Як працює SPERO,$$s$? SPERO,$$s$ використовує багатогранну структуру, яка відрізняє його від традиційних криптовалютних проектів. Ось деякі ключові особливості, які підкреслюють його унікальність та інноваційність: Децентралізоване управління: SPERO,$$s$ інтегрує моделі децентралізованого управління, надаючи користувачам можливість активно брати участь у процесах прийняття рішень щодо майбутнього проекту. Цей підхід сприяє відчуттю власності та відповідальності серед членів спільноти. Корисність токена: SPERO,$$s$ використовує свій власний криптовалютний токен, розроблений для виконання різних функцій в екосистемі. Ці токени дозволяють здійснювати транзакції, отримувати винагороди та полегшувати послуги, що пропонуються на платформі, підвищуючи загальну залученість та корисність. Шарова архітектура: Технічна архітектура SPERO,$$s$ підтримує модульність та масштабованість, що дозволяє безперешкодно інтегрувати додаткові функції та додатки в міру розвитку проекту. Ця адаптивність є надзвичайно важливою для збереження актуальності в постійно змінюваному крипто-ландшафті. Залучення спільноти: Проект підкреслює ініціативи, що підтримуються спільнотою, використовуючи механізми, які стимулюють співпрацю та зворотний зв'язок. Підтримуючи сильну спільноту, SPERO,$$s$ може краще задовольняти потреби користувачів та адаптуватися до ринкових тенденцій. Фокус на інклюзію: Пропонуючи низькі комісії за транзакції та зручні інтерфейси, SPERO,$$s$ прагне залучити різноманітну базу користувачів, включаючи осіб, які раніше не брали участі в крипто-просторі. Це зобов'язання до інклюзії узгоджується з його загальною місією наділення через доступність. Хронологія SPERO,$$s$ Розуміння історії проекту надає важливі уявлення про його розвиток та етапи. Нижче наведено пропоновану хронологію, що відображає значні події в еволюції SPERO,$$s$: Етап концептуалізації та ідеації: Початкові ідеї, що стали основою SPERO,$$s$, були сформовані, тісно пов'язані з принципами децентралізації та фокусом на спільноті в індустрії блокчейн. Запуск білого паперу проекту: Після концептуального етапу був випущений комплексний білий папір, що детально описує бачення, цілі та технологічну інфраструктуру SPERO,$$s$, щоб залучити інтерес та зворотний зв'язок від спільноти. Створення спільноти та ранні залучення: Активні зусилля були спрямовані на створення спільноти ранніх прихильників та потенційних інвесторів, що полегшило обговорення цілей проекту та отримання підтримки. Подія генерації токенів: SPERO,$$s$ провів подію генерації токенів (TGE) для розподілу своїх рідних токенів серед ранніх прихильників та встановлення початкової ліквідності в екосистемі. Запуск початкового dApp: Перший децентралізований додаток (dApp), пов'язаний з SPERO,$$s$, став доступним, дозволяючи користувачам взаємодіяти з основними функціями платформи. Постійний розвиток та партнерства: Безперервні оновлення та вдосконалення пропозицій проекту, включаючи стратегічні партнерства з іншими учасниками блокчейн-простору, сформували SPERO,$$s$ у конкурентоспроможного та еволюціонуючого гравця на крипто-ринку. Висновок SPERO,$$s$ є свідченням потенціалу web3 та криптовалют для революціонізації фінансових систем та наділення індивідів. Завдяки зобов'язанню до децентралізованого управління, залучення спільноти та інноваційно спроектованих функцій, він прокладає шлях до більш інклюзивного фінансового ландшафту. Як і з будь-якими інвестиціями в швидко змінюваному крипто-просторі, потенційним інвесторам та користувачам рекомендується ретельно досліджувати та обдумано взаємодіяти з поточними подіями в SPERO,$$s$. Проект демонструє інноваційний дух крипто-індустрії, запрошуючи до подальшого дослідження його численних можливостей. Хоча подорож SPERO,$$s$ ще триває, його основні принципи можуть справді вплинути на майбутнє того, як ми взаємодіємо з технологією, фінансами та один з одним у взаємопов'язаних цифрових екосистемах.

73 переглядів усьогоОпубліковано 2024.12.17Оновлено 2024.12.17

Що таке $S$

Що таке AGENT S

Агент S: Майбутнє автономної взаємодії в Web3 Вступ У постійно змінюваному ландшафті Web3 та криптовалюти інновації постійно переосмислюють, як люди взаємодіють з цифровими платформами. Один з таких новаторських проектів, Агент S, обіцяє революціонізувати взаємодію людини з комп'ютером через свою відкриту агентну структуру. Прокладаючи шлях для автономних взаємодій, Агент S прагне спростити складні завдання, пропонуючи трансформаційні застосування в штучному інтелекті (ШІ). Це детальне дослідження заглиблюється в складності проекту, його унікальні особливості та наслідки для сфери криптовалюти. Що таке Агент S? Агент S є революційною відкритою агентною структурою, спеціально розробленою для вирішення трьох основних викликів в автоматизації комп'ютерних завдань: Набуття специфічних знань у галузі: Структура інтелектуально навчається з різних зовнішніх джерел знань та внутрішнього досвіду. Цей подвійний підхід дозволяє їй створити багатий репозиторій специфічних знань у галузі, покращуючи її продуктивність у виконанні завдань. Планування на довгих горизонтах завдань: Агент S використовує планування з підкріпленням досвіду, стратегічний підхід, який полегшує ефективний розподіл та виконання складних завдань. Ця функція значно підвищує її здатність ефективно та результативно управляти кількома підзавданнями. Обробка динамічних, неоднорідних інтерфейсів: Проект представляє Інтерфейс Агент-Комп'ютер (ACI), інноваційне рішення, яке покращує взаємодію між агентами та користувачами. Використовуючи багатомодальні великі мовні моделі (MLLMs), Агент S може безперешкодно орієнтуватися та маніпулювати різноманітними графічними інтерфейсами користувача. Завдяки цим новаторським функціям Агент S надає надійну структуру, яка вирішує складнощі, пов'язані з автоматизацією людської взаємодії з машинами, прокладаючи шлях для численних застосувань у ШІ та за його межами. Хто є творцем Агент S? Хоча концепція Агент S є фундаментально новаторською, конкретна інформація про його творця залишається невідомою. Творець наразі невідомий, що підкреслює або початкову стадію проекту, або стратегічний вибір зберегти засновників у таємниці. Незважаючи на анонімність, акцент залишається на можливостях та потенціалі структури. Хто є інвесторами Агент S? Оскільки Агент S є відносно новим у криптографічній екосистемі, детальна інформація про його інвесторів та фінансових спонсорів не задокументована. Відсутність публічно доступних відомостей про інвестиційні фонди або організації, що підтримують проект, викликає питання щодо його фінансової структури та дорожньої карти розвитку. Розуміння підтримки є критично важливим для оцінки стійкості проекту та потенційного впливу на ринок. Як працює Агент S? В основі Агент S лежить передова технологія, яка дозволяє йому ефективно функціонувати в різних умовах. Його операційна модель побудована навколо кількох ключових функцій: Взаємодія з комп'ютером, подібна до людської: Структура пропонує розширене планування ШІ, прагнучи зробити взаємодії з комп'ютерами більш інтуїтивними. Імітуючи людську поведінку при виконанні завдань, вона обіцяє підвищити досвід користувачів. Наративна пам'ять: Використовується для використання високорівневого досвіду, Агент S використовує наративну пам'ять для відстеження історій завдань, тим самим покращуючи свої процеси прийняття рішень. Епізодична пам'ять: Ця функція надає користувачам покрокові інструкції, дозволяючи структурі пропонувати контекстуальну підтримку в міру виконання завдань. Підтримка OpenACI: Завдяки можливості працювати локально, Агент S дозволяє користувачам зберігати контроль над своїми взаємодіями та робочими процесами, узгоджуючи з децентралізованою етикою Web3. Легка інтеграція з зовнішніми API: Його універсальність і сумісність з різними платформами ШІ забезпечують те, що Агент S може безперешкодно вписатися в існуючі технологічні екосистеми, роблячи його привабливим вибором для розробників та організацій. Ці функціональні можливості колективно сприяють унікальному положенню Агент S у крипто-просторі, оскільки він автоматизує складні, багатоступеневі завдання з мінімальним втручанням людини. У міру розвитку проекту його потенційні застосування в Web3 можуть переосмислити, як відбуваються цифрові взаємодії. Хронологія Агент S Розробка та етапи Агент S можуть бути узагальнені в хронології, яка підкреслює його значні події: 27 вересня 2024 року: Концепція Агент S була представлена в комплексній науковій статті під назвою “Відкрита агентна структура, яка використовує комп'ютери як людина”, що демонструє основи проекту. 10 жовтня 2024 року: Наукова стаття була опублікована на arXiv, пропонуючи детальне дослідження структури та її оцінки продуктивності на основі бенчмарку OSWorld. 12 жовтня 2024 року: Було випущено відеопрезентацію, що надає візуальне уявлення про можливості та особливості Агент S, ще більше залучаючи потенційних користувачів та інвесторів. Ці маркери в хронології не лише ілюструють прогрес Агент S, але й вказують на його прихильність до прозорості та залучення громади. Ключові моменти про Агент S У міру розвитку структури Агент S кілька ключових характеристик виділяються, підкреслюючи її новаторський характер та потенціал: Інноваційна структура: Розроблена для забезпечення інтуїтивного використання комп'ютерів, подібного до людської взаємодії, Агент S пропонує новий підхід до автоматизації завдань. Автономна взаємодія: Здатність автономно взаємодіяти з комп'ютерами через GUI означає стрибок до більш інтелектуальних та ефективних обчислювальних рішень. Автоматизація складних завдань: Завдяки своїй надійній методології він може автоматизувати складні, багатоступеневі завдання, роблячи процеси швидшими та менш схильними до помилок. Безперервне вдосконалення: Механізми навчання дозволяють Агенту S покращуватися на основі минулого досвіду, постійно підвищуючи свою продуктивність та ефективність. Універсальність: Його адаптивність до різних операційних середовищ, таких як OSWorld та WindowsAgentArena, забезпечує його здатність служити широкому спектру застосувань. Оскільки Агент S займає своє місце в ландшафті Web3 та криптовалюти, його потенціал покращити можливості взаємодії та автоматизувати процеси означає значний прогрес у технологіях ШІ. Завдяки своїй інноваційній структурі Агент S є прикладом майбутнього цифрових взаємодій, обіцяючи більш безперешкодний та ефективний досвід для користувачів у різних галузях. Висновок Агент S представляє собою сміливий крок вперед у поєднанні ШІ та Web3, з можливістю переосмислити, як ми взаємодіємо з технологією. Хоча проект все ще на ранніх стадіях, можливості для його застосування є величезними та переконливими. Завдяки своїй комплексній структурі, що вирішує критичні виклики, Агент S прагне вивести автономні взаємодії на передній план цифрового досвіду. У міру того, як ми заглиблюємося в сфери криптовалюти та децентралізації, проекти, подібні до Агент S, безсумнівно, відіграватимуть ключову роль у формуванні майбутнього технологій та співпраці людини з комп'ютером.

540 переглядів усьогоОпубліковано 2025.01.14Оновлено 2025.01.14

Що таке AGENT S

Як купити S

Ласкаво просимо до HTX.com! Ми зробили покупку Sonic (S) простою та зручною. Дотримуйтесь нашої покрокової інструкції, щоб розпочати свою криптовалютну подорож.Крок 1: Створіть обліковий запис на HTXВикористовуйте свою електронну пошту або номер телефону, щоб зареєструвати обліковий запис на HTX безплатно. Пройдіть безпроблемну реєстрацію й отримайте доступ до всіх функцій.ЗареєструватисьКрок 2: Перейдіть до розділу Купити крипту і виберіть спосіб оплатиКредитна/дебетова картка: використовуйте вашу картку Visa або Mastercard, щоб миттєво купити Sonic (S).Баланс: використовуйте кошти з балансу вашого рахунку HTX для безперешкодної торгівлі.Треті особи: ми додали популярні способи оплати, такі як Google Pay та Apple Pay, щоб підвищити зручність.P2P: Торгуйте безпосередньо з іншими користувачами на HTX.Позабіржова торгівля (OTC): ми пропонуємо індивідуальні послуги та конкурентні обмінні курси для трейдерів.Крок 3: Зберігайте свої Sonic (S)Після придбання Sonic (S) збережіть його у своєму обліковому записі на HTX. Крім того, ви можете відправити його в інше місце за допомогою блокчейн-переказу або використовувати його для торгівлі іншими криптовалютами.Крок 4: Торгівля Sonic (S)Легко торгуйте Sonic (S) на спотовому ринку HTX. Просто увійдіть до свого облікового запису, виберіть торгову пару, укладайте угоди та спостерігайте за ними в режимі реального часу. Ми пропонуємо зручний досвід як для початківців, так і для досвідчених трейдерів.

1.3k переглядів усьогоОпубліковано 2025.01.15Оновлено 2025.03.21

Як купити S

Обговорення

Ласкаво просимо до спільноти HTX. Тут ви можете бути в курсі останніх подій розвитку платформи та отримати доступ до професійної ринкової інформації. Нижче представлені думки користувачів щодо ціни S (S).

活动图片