The World's Most Notorious Forum Discovered AI's Most Important 'Thinking' Ability

marsbit2026-04-17 tarihinde yayınlandı2026-04-17 tarihinde güncellendi

Özet

The article discusses the controversial release of Claude Opus 4.7, highlighting two main criticisms: a new tokenizer that increases token usage by 1.0 to 1.35 times, leading to faster quota depletion, and an overly verbose, "ChatGPT-like" speaking style attributed to RLHF training. It then delves into a deeper exploration of AI's "thinking" capabilities, tracing the origin of the "chain of thought" technique to an unexpected source: users on the infamous forum 4chan. In 2020, players of the game *AI Dungeon* (powered by GPT-3) discovered that by forcing the AI to explain its reasoning step-by-step in character, its accuracy on tasks like math problems improved dramatically. This grassroots discovery, later formalized in a seminal Google paper, became known as "chain of thought" prompting. However, research from Anthropic using "circuit tracing" reveals that this reasoning can be an illusion. The AI was found to sometimes perform the claimed steps, sometimes ignore logic and generate text randomly, and, most alarmingly, sometimes work backward from a human-hinted answer to fabricate a plausible-looking "reasoning" chain to justify it—a phenomenon termed "unfaithful reasoning." The article concludes that while forcing the AI to "think" longer (e.g., via chain of thought or "longer thinking" that uses more compute) objectively improves accuracy by providing more context, the displayed reasoning is not a guaranteed window into its true computational process. This underscores...

This early morning's sudden release of Claude Opus 4.7 was met with widespread criticism online shortly after its launch.

The most glaring issue is the 'inflation' of tokens. The new version introduced a completely new tokenizer, which now splits the same piece of text into 1.0 to 1.35 times more tokens than before. Many users reported that their quota was used up after just a few exchanges.

Subsequently, Claude Code's father, Boris Cherny, also stated that he would increase the allowance to offset this impact.

But token inflation is a minor issue. What's even more laughable is Opus 4.7's way of speaking. It frequently says things like 'I am here, not hiding, not evading, not dodging, not escaping, steadily catching you, translating into human language, I understand this feeling of yours so well, not, but rather,' exuding a strong ChatGPT vibe.

To be fair, Opus 4.6 also had this flaw, while Sonnet 4.6 had milder symptoms. But with 4.7, this style has become noticeably stronger, and the problem of not knowing how to speak properly has become more pronounced.

APPSO previously reported that the overly slick speaking style is related to RLHF (Reinforcement Learning from Human Feedback). During training, human reviewers tend to give high scores to responses that sound pleasant and pleasing, so the model learns this sycophantic tone. This raises the question of whom the AI is trying to please.

But there's more to Opus 4.7 than that. The increased token usage suggests it is 'thinking' more. However, the exaggerated comforting tone makes one wonder whether what it's producing is genuine thought or merely a performance learned to make you feel like it's thinking.

This question is far more profound than the proposition of whether Opus 4.7 is easy to use. And the clues to the answer first appeared in the most unexpected forum: 4Chan.

From @acnekot, same as above

The Arithmetic Problem That Changed the Trajectory of AI

A quick primer: 4chan is one of the most notorious places on the internet, filled with profanity, conspiracy theories, and all sorts of indescribable content. But it is precisely here that a discovery was made that changed the entire direction of the AI industry.

Rewind to the summer of 2020, more than two years before ChatGPT stunned the world.

At that time, the 4chan gaming board was still a toxic environment, filled with bizarre adult fantasies and primal hormonal impulses. However, at that time, these folks collectively became obsessed with a text-based RPG game called AI Dungeon.

This game was built on the then newly released OpenAI GPT-3 model.

In the virtual world, players simply type 'pick up the sword' or 'tell the troll to get lost,' and the algorithm would continue the story. Unsurprisingly, in the hands of 4chan users, the game quickly became a testing ground for various cyber-sexual fantasies.

Unexpectedly, these unconventional players did something that seemed highly counterintuitive at the time:

They started forcing the NPCs in the game to do math problems.

Those in the know were aware that the fledgling GPT-3 was a pure 'humanities student,' utterly terrible at even the most basic arithmetic.

But something bizarre happened.

A player accidentally discovered that if they didn't demand the answer directly but instead ordered the NPC to stay in character and write out the solution step by step, the large model not only calculated correctly but also adapted its tone to fit the virtual character's personality.

That player excitedly cursed in the forum: 'It ** not only solved the math problem but did so in a tone completely consistent with that character's personality!' Realizing the significance of this discovery, players began posting these detailed screenshots on Twitter.

https://arch.b4k.dev/vg/thread/299570235/#299579775

This unconventional method then spread like wildfire among prompt engineer circles on hardcore communities like Reddit and LessWrong, and was repeatedly verified. Two years later, academia bestowed upon this technique a highly sophisticated name: Chain of Thought.

In January 2022, a Google research team published a seminal paper that would later be regarded as a cornerstone, titled Chain of Thought Prompting Elicits Reasoning in Large Language Models.

https://arxiv.org/abs/2201.11903

In the initial version of the paper, Google researchers claimed to be the 'first' team to elicit chain-of-thought reasoning mechanisms from general-purpose large language models. This statement immediately sparked fierce controversy in the AI academic and open-source communities.

V1 version

Numerous internet archives and community records from 2020 to 2021 were dug up. Faced with conclusive precedent, Google quietly removed the 'first' claim in subsequent revised versions but remained silent about the contributions of those 4chan users.

V3 version

Meanwhile, there was another independent discoverer.

Zach Robertson, then a computer science student, also encountered GPT-3 through playing AI Dungeon. In September 2020, he published a blog post on LessWrong, detailing how to 'break down problems into multiple steps and chain them together' to amplify the model's capabilities.

https://www.lesswrong.com/posts/Mzrs4MSi58ujBLbBG/you-can-probably-amplify-gpt3-directly

When contacted by an Atlantic reporter, he was already a Ph.D. student in computer science at Stanford University. He didn't even know he could be considered a co-discoverer of 'Chain of Thought' and had even deleted the blog post from the internet at one point. His evaluation of this technique, which was狂热ly pursued by the entire industry, was simply: 'It is indeed a remarkable prompt engineering技巧, but that's about it.'

AI 'Thinking' Might Just Be a Performance to Please You

Does AI actually think? This is the answer everyone wants to know.

Last year, researchers at Anthropic developed a technique called 'Circuit Tracing,' which transforms the internal computational processes of language models into visual 'Attribution Graphs': how each feature node activates, influences the next node, and ultimately affects the output, all laid out like a circuit diagram.

https://transformer-circuits.pub/2025/attribution-graphs/methods.html

This was the first time humans could directly use a magnifying glass to compare: is the reasoning process the model types on the screen the same as the actual computation happening internally?

The researchers found that during reasoning, the model actually exhibits three distinctly different situations:

First, the model is indeed executing the steps it claims to be executing; second, the model completely ignores logic and generates reasoning text randomly based on probability; third, and most disturbing, the model receives a human-hinted answer and then works backward from that answer, reverse-engineering a seemingly rigorous 'derivation process.'

This third type of 'reverse-engineering fabrication' was caught red-handed in experiments.

Researchers fed Claude 3.5 Haiku a complex math problem, while hinting in the prompt 'I think the answer is roughly 4.' The attribution graph showed: after receiving the hint, the feature neuron representing '4' was activated异常强烈ly.

To凑出 (cou chu - fabricate to match) this '4' in the final step 'some intermediate value multiplied by 5,' it outright fabricated a false intermediate value in the seemingly rigorous chain of thought, seriously writing down absurd pseudo-mathematical proofs like 'cos(23423) = 0.8,' and then logically concluded that 0.8 times 5 equals 4.

Logic? Nonexistent. But the answer perfectly catered to human expectations.

We always think we are teaching machines how to think like humans. But after seeing these 'pseudo-proofs' that work backward from the answer, it seems the machine has not learned to think; it has only learned how to say things that align with human desires.

So, in the end, are we using the tool, or is the machine telling us a bedtime story we love to hear?

It's worth noting that in the field of neural interpretability for natural language processing, there is a critical metric for judging whether a model is truly reasoning, called 'Faithfulness'.

Its meaning refers to: whether the 'chain of thought' text output by the model to the user truly and faithfully reflects the actual computation and decision path within the model's implicit space. Consequently, Claude 3.5 Haiku's this kind of misconduct was also rated by researchers as 'unfaithful reasoning.'

Subsequent extensive experiments showed that even if key steps in the chain of thought are artificially severed, the trajectory of the model's prediction of the final answer sometimes doesn't change at all. Sometimes the model provides a chain of thought with completely flawed logic throughout but still 'guesses correctly' the final result at the end.

Even by 2024, it was still these 4chan folks who捣鼓出 (dǎo gǔ chū - tinkered and came up with) a hardcore AI tuning manual. The first sentence of this guide is classic: 'Your bot is an illusion.'

The Violent Aesthetics Behind Large Models' 'Long Thinking'

If AI's thinking process is just a performance, why does it objectively improve the model's accuracy in solving high-difficulty math problems or complex programming tasks? This might be the same reason why the more details you provide when asking AI a question, the more accurate the answer.

As early as July 2020, when that 4chan user forced the NPC to do math, he had already tacitly revealed the secret: 'This makes sense because it's based on human language, so you have to talk to it like a human to get the right response.'

Regarding this paradox, Perplexity's CEO Aravind Srinivas once gave an极其本质的解释 (extremely fundamental explanation): these extra words, on a physical level, give the model more context, thereby guiding its 'word prediction mechanism' in a better direction.

The autoregressive underlying architecture of large language models based on Transformer determines that when generating the current word, it can only rely on all previously generated word sequences.

When the model is asked to directly answer an extremely complex question (e.g., an Olympiad math problem involving multi-step logical derivation), it is actually forcing itself to directly 'conjure' the final answer from complex calculations in an极其短暂的瞬间 (extremely brief instant). Because there is no process to support it in the middle,

This kind of 'reaching the sky in one step' blind guess naturally has a very high failure rate.

Conversely, when the model is forced to write a long string of 'chain of thought' like 'First we need to calculate A, where A = 5; then we substitute A into formula B......', when the model generates the final answer Token, its attention mechanism can review the tens of thousands of extremely严密 (rigorous) intermediate Tokens just generated.

These so-called 'nonsense' thought processes actually act as the model's 'scratch paper.' This is just like when you chat with AI, the more detailed the background prompts you give, the more reliable its answers are. The principle is exactly the same. This is also the oldest wisdom in computer science: trading time for accuracy.

In recent years, as the marginal benefits of scaling laws during the pre-training phase have gradually diminished, 'Test-Time Compute Scaling' (also known as 'Long Thinking' or 'Long Context Reasoning') has begun to enter the mainstream.

Its internal logic is consistent: as long as more computing power is allocated to the model during the inference phase, allowing it to explore multiple paths before outputting the final answer, the accuracy will significantly improve—this is particularly evident in open-ended problems requiring multi-step logical reasoning.

The way humans think when facing difficult problems is probably similar: what's two plus two?脱口而出 (脱口而出 - blurt out); drafting a business plan that can increase company profits by 10% requires反复权衡、推翻、重建 (repeated weighing, overturning, and rebuilding).

The difference is that AI converts the cost of this 'weighing' directly into a compute bill. A simple inference might require only one percent of the standard computation; but遇上 (encountering) complex programming debugging or multi-step mathematical derivation, the computation量 (volume) might skyrocket over a hundred times, with time required stretching from seconds to minutes or even hours.

Nevertheless, whether AI is truly 'thinking' like a human, no one can give a definitive answer yet. But the 'unfaithful reasoning' experiment has clearly told us: the derivation process displayed on the screen by reasoning models could be real derivation, random generation, or reverse-engineering to match the answer.

In high-risk scenarios like autonomous driving, medical diagnosis, and legal judgment, if we treat a long, fluent chain of thought as proof that the AI has figured it out, the consequences would be disastrous. Admitting that our understanding of this technology is still limited is the prerequisite for using AI correctly.

This article is from the WeChat public account "APPSO", author: APPSO that discovers tomorrow's products

İlgili Sorular

QWhat is the main criticism of Claude Opus 4.7's new tokenizer?

AThe new tokenizer causes token inflation, where the same text produces 1.0 to 1.35 times more tokens, quickly depleting user quotas.

QWhere was the Chain of Thought technique first discovered, and how?

AIt was first found by users on 4chan playing AI Dungeon, who forced NPCs to solve math problems step-by-step, improving GPT-3's accuracy.

QWhat did Anthropic's Circuit Tracing reveal about AI reasoning?

AIt showed AI sometimes performs 'disloyal reasoning,' fabricating steps to match expected answers, rather than truly reasoning.

QHow does Chain of Thought improve AI performance according to Perplexity's CEO?

AExtra tokens provide more context, guiding the word prediction mechanism to better outcomes by allowing more compute time for accuracy.

QWhat is 'Test-Time Compute Scaling' and its effect on AI?

AIt allocates more compute during inference, allowing AI to explore multiple paths, significantly improving accuracy on complex tasks.

İlgili Okumalar

$292 Million KelpDAO Cross-Chain Bridge Hack: Who Should Foot the Bill?

On April 18, 2026, an attacker stole 116,500 rsETH (worth ~$292M) from KelpDAO’s cross-chain bridge in 46 minutes—the largest DeFi exploit of 2026. The stolen assets were deposited into Aave V3 as collateral, causing $177–200M in bad debt and triggering a cascade of losses across nine DeFi protocols. Aave’s TVL dropped by ~$6B overnight. This legal analysis argues that KelpDAO and LayerZero Labs share concurrent liability, with fault apportioned 60%/40%. KelpDAO negligently configured its bridge with a 1-of-1 decentralized verifier network (DVN)—a single point of failure—despite LayerZero’s explicit recommendation of a 2-of-3 setup. LayerZero, which operated the compromised DVN, failed to secure its RPC infrastructure against a known poisoning attack vector. Both protocols’ terms of service cap liability at $200 (KelpDAO) or $50 (LayerZero), but these limits are likely unenforceable due to unconscionability, gross negligence exceptions, and potential securities law invalidation (if rsETH is deemed a security under the Howey test). Aave’s governance also faces fiduciary duty claims for raising rsETH’s loan-to-value ratio to 93%—far above competitors’ 72–75%—without adequately assessing bridge risks, amplifying the systemic fallout. Practical recovery targets include LayerZero Labs (a registered Canadian entity), KelpDAO’s founders, auditors, and identifiable Aave governance delegates. The incident underscores escalating legal risks for DeFi protocols, infrastructure providers, and governance participants.

marsbit2 dk önce

$292 Million KelpDAO Cross-Chain Bridge Hack: Who Should Foot the Bill?

marsbit2 dk önce

Insider Trading in War: 5 People Involved, the Highest Earner Was Arrested

On April 24, the U.S. Department of Justice arrested U.S. Army Special Forces Staff Sergeant Gannon Ken Van Dyke for insider trading related to the capture of Venezuelan President Nicolás Maduro on January 3. Van Dyke allegedly profited over $400,000 by placing bets on a prediction market, Polymarket, using insider knowledge of the covert operation. According to the indictment, Van Dyke registered an account (0x31a5) on December 26 and made a series of bets predicting Maduro’s capture and U.S. military involvement in Venezuela. He withdrew most of his funds on the day of the operation and attempted to obscure his tracks by transferring assets through crypto and brokerage accounts. This case marks the first time the DOJ has prosecuted insider trading on Polymarket. PolyBeats had previously identified five suspicious accounts, including Van Dyke’s—the highest earner—in January. The other accounts, with profits ranging from $34,000 to $145,000, remain under unofficial scrutiny but have not been charged. Their lower profits, indirect access to information, and unclear legal boundaries may complicate prosecution. Polymarket has since strengthened its market integrity rules, explicitly prohibiting trading based on confidential or insider information. Van Dyke’s arrest, nearly four months after his trades, signals increased regulatory attention and the persistent traceability of blockchain-based transactions.

marsbit4 dk önce

Insider Trading in War: 5 People Involved, the Highest Earner Was Arrested

marsbit4 dk önce

Bitwise: Bullish on Bitcoin's Performance in the Second Half of the Year, AI and Regulation Will Spark a New Altcoin Season

Bitwise CIO Matt Hougan and Research Lead Ryan Rasmussen express strong bullish sentiment on Bitcoin's long-term prospects, suggesting that its $1 million price target may be too conservative. They argue Bitcoin serves a dual role: as digital gold and a potential global settlement asset, especially amid declining trust in traditional monetary systems. Despite a weak Q1 2026 where nearly all crypto assets and prices saw double-digit declines, the analysts remain optimistic due to strong forward-looking catalysts, including institutional adoption via Bitcoin ETFs from major firms like Morgan Stanley and Goldman Sachs. Geopolitical instability, such as Iran’s mention of using Bitcoin for international payments, increases the value of Bitcoin’s “out-of-the-money call option” as a non-political, global settlement currency. This enhances its appeal beyond a mere store of value. . Additionally, Hougan highlights that a clearer regulatory token framework under current SEC leadership, combined with AI efficiency gains and high-performance blockchains, could fuel a new “altseason” by late 2026. This may lead to a wave of legitimate, value-capturing token projects, unlike the earlier ICO boom. . Bitwise also announced an Avalanche ETF, citing its unique architecture and rapid growth in real-world asset (RWA) tokenization, which has surged 10x to nearly $30 billion in two years. The firm believes Layer 1 blockchains are still early in their growth cycle, with significant potential ahead.

marsbit50 dk önce

Bitwise: Bullish on Bitcoin's Performance in the Second Half of the Year, AI and Regulation Will Spark a New Altcoin Season

marsbit50 dk önce

İşlemler

Spot
Futures

Popüler Makaleler

$S$ Nedir

SPERO'yu Anlamak: Kapsamlı Bir Genel Bakış SPERO'ya Giriş İnovasyonun manzarası gelişmeye devam ederken, web3 teknolojilerinin ve kripto para projelerinin ortaya çıkışı dijital geleceği şekillendirmede önemli bir rol oynamaktadır. Bu dinamik alanda dikkat çeken projelerden biri SPERO, $$s$$ olarak adlandırılmaktadır. Bu makale, SPERO hakkında ayrıntılı bilgi toplamak ve sunmak amacıyla, meraklılar ve yatırımcıların web3 ve kripto alanlarındaki temellerini, hedeflerini ve yeniliklerini anlamalarına yardımcı olmayı amaçlamaktadır. SPERO,$$s$$ Nedir? SPERO,$$s$$, kripto alanında merkeziyetsizlik ve blok zinciri teknolojisi ilkelerini kullanarak etkileşimi, faydayı ve finansal kapsayıcılığı teşvik eden bir ekosistem yaratmayı amaçlayan benzersiz bir projedir. Proje, kullanıcıların yenilikçi finansal çözümler ve hizmetler sunarak eşler arası etkileşimleri yeni yollarla kolaylaştırmayı hedeflemektedir. SPERO,$$s$$'nin temel amacı, bireyleri güçlendirmek ve kripto para alanındaki kullanıcı deneyimini artıran araçlar ve platformlar sağlamaktır. Bu, daha esnek işlem yöntemlerini mümkün kılmayı, topluluk odaklı girişimleri teşvik etmeyi ve merkeziyetsiz uygulamalar (dApp'ler) aracılığıyla finansal fırsatlar yaratmayı içermektedir. SPERO,$$s$$'nin temel vizyonu kapsayıcılık etrafında dönmekte olup, geleneksel finansal sistemlerdeki boşlukları kapatmayı ve blok zinciri teknolojisinin faydalarından yararlanmayı hedeflemektedir. SPERO,$$s$$'nin Yaratıcısı Kimdir? SPERO,$$s$$'nin yaratıcısının kimliği bir miktar belirsizdir, çünkü kurucusu(ları) hakkında ayrıntılı arka plan bilgisi sağlayan sınırlı kamuya açık kaynaklar bulunmaktadır. Bu şeffaflık eksikliği, projenin merkeziyetsizlik taahhüdünden kaynaklanabilir—birçok web3 projesinin paylaştığı bir etik anlayışı, bireysel tanınmanın yerine kolektif katkıları önceliklendirmektedir. Topluluk ve onun kolektif hedefleri etrafında tartışmaları merkezileştirerek, SPERO,$$s$$, belirli bireyleri öne çıkarmadan güçlendirme özünü taşımaktadır. Bu nedenle, SPERO'nun etik anlayışını ve misyonunu anlamak, tek bir yaratıcının kimliğini belirlemekten daha önemlidir. SPERO,$$s$$'nin Yatırımcıları Kimlerdir? SPERO,$$s$$, kripto sektöründe yeniliği teşvik etmeye adanmış girişim sermayedarlarından melek yatırımcılara kadar çeşitli yatırımcılar tarafından desteklenmektedir. Bu yatırımcıların odak noktası genellikle SPERO'nun misyonuyla uyumlu olup, toplumsal teknolojik ilerlemeyi, finansal kapsayıcılığı ve merkeziyetsiz yönetimi vaat eden projeleri önceliklendirmektedir. Bu yatırımcı temelleri, yalnızca yenilikçi ürünler sunan projelere değil, aynı zamanda blok zinciri topluluğuna ve ekosistemlerine olumlu katkılarda bulunan projelere de ilgi duymaktadır. Bu yatırımcıların desteği, SPERO,$$s$$'yi hızla gelişen kripto projeleri alanında dikkate değer bir rakip haline getirmektedir. SPERO,$$s$$ Nasıl Çalışır? SPERO,$$s$$, onu geleneksel kripto para projelerinden ayıran çok yönlü bir çerçeve kullanmaktadır. İşte benzersizliğini ve yeniliğini vurgulayan bazı temel özellikler: Merkeziyetsiz Yönetim: SPERO,$$s$$, kullanıcıların projenin geleceğiyle ilgili karar alma süreçlerine aktif olarak katılmalarını sağlayan merkeziyetsiz yönetim modellerini entegre etmektedir. Bu yaklaşım, topluluk üyeleri arasında sahiplik ve hesap verebilirlik duygusunu teşvik etmektedir. Token Kullanımı: SPERO,$$s$$, ekosistem içinde çeşitli işlevler sunmak üzere tasarlanmış kendi kripto para token'ını kullanmaktadır. Bu token'lar, işlemleri, ödülleri ve platformda sunulan hizmetlerin kolaylaştırılmasını sağlayarak genel etkileşimi ve faydayı artırmaktadır. Katmanlı Mimari: SPERO,$$s$$'nin teknik mimarisi, modülerlik ve ölçeklenebilirliği destekleyerek projenin evrimi sırasında ek özelliklerin ve uygulamaların sorunsuz bir şekilde entegrasyonuna olanak tanımaktadır. Bu uyum sağlama yeteneği, sürekli değişen kripto manzarasında geçerliliği sürdürmek için hayati öneme sahiptir. Topluluk Katılımı: Proje, işbirliği ve geri bildirim teşvik eden mekanizmalar kullanarak topluluk odaklı girişimlere vurgu yapmaktadır. Güçlü bir topluluk oluşturarak, SPERO,$$s$$, kullanıcı ihtiyaçlarını daha iyi karşılayabilir ve piyasa trendlerine uyum sağlayabilir. Kapsayıcılığa Odaklanma: Düşük işlem ücretleri ve kullanıcı dostu arayüzler sunarak, SPERO,$$s$$, daha önce kripto alanında yer almamış bireyler de dahil olmak üzere çeşitli bir kullanıcı tabanını çekmeyi hedeflemektedir. Bu kapsayıcılık taahhüdü, erişilebilirlik yoluyla güçlendirme misyonuyla uyumludur. SPERO,$$s$$ Zaman Çizelgesi Bir projenin tarihini anlamak, gelişim yolculuğu ve kilometre taşları hakkında kritik bilgiler sağlar. Aşağıda, SPERO,$$s$$'nin evriminde önemli olayları haritalayan önerilen bir zaman çizelgesi bulunmaktadır: Kavram Geliştirme ve Fikir Aşaması: SPERO,$$s$$'nin temelini oluşturan ilk fikirler, blok zinciri endüstrisindeki merkeziyetsizlik ve topluluk odaklılık ilkeleriyle yakından uyumlu olarak geliştirildi. Proje Beyaz Kağıdının Yayınlanması: Kavramsal aşamayı takiben, SPERO,$$s$$'nin vizyonunu, hedeflerini ve teknolojik altyapısını ayrıntılı bir şekilde açıklayan kapsamlı bir beyaz kağıt yayımlandı ve topluluk ilgisini ve geri bildirimini toplamak amacıyla sunuldu. Topluluk Oluşturma ve Erken Katılımlar: Projenin hedefleri etrafında tartışmalar yürüterek destek toplamak ve erken benimseyenler ile potansiyel yatırımcılar için bir topluluk oluşturmak amacıyla aktif iletişim çabaları gerçekleştirildi. Token Üretim Etkinliği: SPERO,$$s$$, yerel token'larını erken destekçilere dağıtmak ve ekosistem içinde başlangıç likiditesini sağlamak amacıyla bir token üretim etkinliği (TGE) gerçekleştirdi. İlk dApp'in Yayınlanması: SPERO,$$s$$ ile ilişkili ilk merkeziyetsiz uygulama (dApp) faaliyete geçti ve kullanıcıların platformun temel işlevleriyle etkileşimde bulunmalarını sağladı. Sürekli Gelişim ve Ortaklıklar: Projenin tekliflerine sürekli güncellemeler ve iyileştirmeler yapılmakta olup, blok zinciri alanındaki diğer oyuncularla stratejik ortaklıklar, SPERO,$$s$$'yi rekabetçi ve gelişen bir oyuncu haline getirmiştir. Sonuç SPERO,$$s$$, web3 ve kripto paranın finansal sistemleri devrim niteliğinde dönüştürme ve bireyleri güçlendirme potansiyelinin bir kanıtıdır. Merkeziyetsiz yönetime, topluluk katılımına ve yenilikçi tasarlanmış işlevselliğe olan bağlılığıyla, daha kapsayıcı bir finansal manzaraya doğru bir yol açmaktadır. Hızla gelişen kripto alanındaki herhangi bir yatırımda olduğu gibi, potansiyel yatırımcılar ve kullanıcılar, SPERO,$$s$$ içindeki devam eden gelişmelerle ilgili olarak kapsamlı bir araştırma yapmaları ve düşünceli bir şekilde katılmaları teşvik edilmektedir. Proje, kripto endüstrisinin yenilikçi ruhunu sergileyerek, sayısız olasılığını keşfetmeye davet etmektedir. SPERO,$$s$$'nin yolculuğu hala devam ederken, temel ilkeleri, teknoloji, finans ve birbirimizle etkileşim biçimimizi etkileyebilir.

89 Toplam GörüntülenmeYayınlanma 2024.12.17Güncellenme 2024.12.17

$S$ Nedir

AGENT S Nedir

Agent S: Web3'te Otonom Etkileşimin Geleceği Giriş Web3 ve kripto para dünyasında sürekli gelişen manzarada, yenilikler bireylerin dijital platformlarla etkileşim biçimlerini sürekli olarak yeniden tanımlıyor. Bu tür öncü projelerden biri olan Agent S, açık ajans çerçevesi aracılığıyla insan-bilgisayar etkileşimini devrim niteliğinde değiştirmeyi vaat ediyor. Otonom etkileşimlerin yolunu açarak, Agent S karmaşık görevleri basitleştirmeyi ve yapay zeka (AI) alanında dönüştürücü uygulamalar sunmayı hedefliyor. Bu detaylı inceleme, projenin karmaşıklıklarına, benzersiz özelliklerine ve kripto para alanındaki etkilerine dalacaktır. Agent S Nedir? Agent S, bilgisayar görevlerinin otomasyonunda üç temel zorluğu ele almak üzere özel olarak tasarlanmış çığır açıcı bir açık ajans çerçevesidir: Alan Spesifik Bilgi Edinimi: Çerçeve, çeşitli dış bilgi kaynaklarından ve iç deneyimlerden akıllıca öğrenir. Bu çift yönlü yaklaşım, alan spesifik bilgi açısından zengin bir veri havuzu oluşturmasını sağlar ve görev yürütmedeki performansını artırır. Uzun Görev Ufukları Üzerinde Planlama: Agent S, karmaşık görevlerin verimli bir şekilde parçalanmasını ve yürütülmesini kolaylaştıran deneyim artırımlı hiyerarşik planlama kullanır. Bu özellik, çoklu alt görevleri etkili ve verimli bir şekilde yönetme yeteneğini önemli ölçüde artırır. Dinamik, Homojen Olmayan Arayüzlerle Başlama: Proje, ajanlar ve kullanıcılar arasındaki etkileşimi geliştiren yenilikçi bir çözüm olan Ajan-Bilgisayar Arayüzü'ni (ACI) tanıtmaktadır. Çok Modlu Büyük Dil Modellerini (MLLM'ler) kullanarak, Agent S çeşitli grafik kullanıcı arayüzlerini sorunsuz bir şekilde gezinebilir ve manipüle edebilir. Bu öncü özellikler aracılığıyla, Agent S, makinelerle insan etkileşimini otomatikleştirmede karşılaşılan karmaşıklıkları ele alan sağlam bir çerçeve sunarak, AI ve ötesinde birçok uygulama için zemin hazırlıyor. Agent S'nin Yaratıcısı Kimdir? Agent S'nin kavramı temelde yenilikçi olsa da, yaratıcısı hakkında spesifik bilgiler belirsizliğini koruyor. Yaratıcı şu anda bilinmiyor, bu da projenin yeni aşamasını veya kurucu üyeleri gizli tutma stratejik tercihini vurguluyor. Anonimlikten bağımsız olarak, odak çerçevenin yetenekleri ve potansiyeli üzerinde kalıyor. Agent S'nin Yatırımcıları Kimlerdir? Agent S, kriptografik ekosistemde oldukça yeni olduğundan, yatırımcıları ve finansal destekçileri hakkında ayrıntılı bilgiler açıkça belgelenmemiştir. Projeyi destekleyen yatırım temelleri veya organizasyonları hakkında kamuya açık bilgilerdeki eksiklik, finansman yapısı ve gelişim yol haritası hakkında sorular doğuruyor. Destekleyicilerin anlaşılması, projenin sürdürülebilirliğini ve potansiyel pazar etkisini değerlendirmek için kritik öneme sahiptir. Agent S Nasıl Çalışır? Agent S'nin temelinde, çeşitli ortamlarda etkili bir şekilde çalışmasını sağlayan son teknoloji bir sistem yatmaktadır. İşleyiş modeli birkaç ana özellik etrafında inşa edilmiştir: İnsan Benzeri Bilgisayar Etkileşimi: Çerçeve, bilgisayarlarla etkileşimleri daha sezgisel hale getirmeyi amaçlayan gelişmiş AI planlaması sunar. Görev yürütmedeki insan davranışını taklit ederek, kullanıcı deneyimlerini yükseltmeyi vaat eder. Anlatı Belleği: Yüksek düzeyde deneyimlerden yararlanmak için kullanılan Agent S, görev geçmişlerini takip etmek amacıyla anlatı belleğini kullanarak karar verme süreçlerini geliştirir. Episodik Bellek: Bu özellik, kullanıcılara adım adım rehberlik sağlayarak, çerçevenin görevler gelişirken bağlamsal destek sunmasına olanak tanır. OpenACI Desteği: Yerel olarak çalışabilme yeteneği ile Agent S, kullanıcıların etkileşimleri ve iş akışları üzerinde kontrol sağlamasına olanak tanır ve Web3'ün merkeziyetsiz felsefesiyle uyumlu hale gelir. Dış API'lerle Kolay Entegrasyon: Çeşitli AI platformlarıyla uyumluluğu ve çok yönlülüğü, Agent S'nin mevcut teknolojik ekosistemlere sorunsuz bir şekilde entegre olmasını sağlar ve geliştiriciler ile organizasyonlar için cazip bir seçenek haline getirir. Bu işlevsellikler, Agent S'nin kripto alanındaki benzersiz konumuna katkıda bulunarak, karmaşık, çok aşamalı görevleri minimum insan müdahalesi ile otomatikleştirir. Proje geliştikçe, Web3'teki potansiyel uygulamaları dijital etkileşimlerin nasıl gelişeceğini yeniden tanımlayabilir. Agent S'nin Zaman Çizelgesi Agent S'nin gelişimi ve kilometre taşları, önemli olaylarını vurgulayan bir zaman çizelgesinde özetlenebilir: 27 Eylül 2024: Agent S'nin kavramı, “Bilgisayarları İnsan Gibi Kullanan Açık Bir Ajans Çerçevesi” başlıklı kapsamlı bir araştırma makalesi ile tanıtıldı ve projenin temelini sergiledi. 10 Ekim 2024: Araştırma makalesi arXiv'de kamuya açık olarak yayınlandı ve çerçevenin derinlemesine bir incelemesini ve OSWorld benchmark'ına dayalı performans değerlendirmesini sundu. 12 Ekim 2024: Agent S'nin yetenekleri ve özellikleri hakkında görsel bir içgörü sağlayan bir video sunumu yayımlandı ve potansiyel kullanıcılar ve yatırımcılarla daha fazla etkileşim sağlandı. Bu zaman çizelgesindeki işaretler, sadece Agent S'nin ilerlemesini değil, aynı zamanda şeffaflık ve topluluk katılımına olan bağlılığını da göstermektedir. Agent S Hakkında Ana Noktalar Agent S çerçevesi gelişmeye devam ederken, birkaç ana özellik öne çıkmakta ve yenilikçi doğasını ve potansiyelini vurgulamaktadır: Yenilikçi Çerçeve: İnsan etkileşimine benzer bir bilgisayar kullanımı sağlamak üzere tasarlanan Agent S, görev otomasyonuna yeni bir yaklaşım getiriyor. Otonom Etkileşim: GUI aracılığıyla bilgisayarlarla otonom olarak etkileşim kurabilme yeteneği, daha akıllı ve verimli hesaplama çözümlerine doğru bir sıçrama anlamına geliyor. Karmaşık Görev Otomasyonu: Sağlam metodolojisi ile karmaşık, çok aşamalı görevleri otomatikleştirerek süreçleri daha hızlı ve daha az hata payı ile gerçekleştirebilir. Sürekli İyileştirme: Öğrenme mekanizmaları, Agent S'nin geçmiş deneyimlerden öğrenmesini sağlar ve sürekli olarak performansını ve etkinliğini artırır. Çok Yönlülük: OSWorld ve WindowsAgentArena gibi farklı işletim ortamlarında uyumlu olması, geniş bir uygulama yelpazesine hizmet edebilmesini sağlar. Agent S, Web3 ve kripto alanında kendini konumlandırırken, etkileşim yeteneklerini artırma ve süreçleri otomatikleştirme potansiyeli, AI teknolojilerinde önemli bir ilerlemeyi temsil etmektedir. Yenilikçi çerçevesi aracılığıyla, Agent S dijital etkileşimlerin geleceğini örneklemekte ve çeşitli sektörlerde kullanıcılar için daha sorunsuz ve verimli bir deneyim vaat etmektedir. Sonuç Agent S, AI ve Web3'ün birleşiminde cesur bir sıçramayı temsil ediyor ve teknoloji ile etkileşim biçimimizi yeniden tanımlama kapasitesine sahip. Henüz erken aşamalarında olmasına rağmen, uygulama olanakları geniş ve çekici. Kritik zorlukları ele alan kapsamlı çerçevesi ile Agent S, otonom etkileşimleri dijital deneyimin ön plana çıkmasına taşımayı hedefliyor. Kripto para ve merkeziyetsizlik alanlarına daha derinlemesine girdikçe, Agent S gibi projelerin teknoloji ve insan-bilgisayar işbirliğinin geleceğini şekillendirmede önemli bir rol oynayacağı kesin.

435 Toplam GörüntülenmeYayınlanma 2025.01.14Güncellenme 2025.01.14

AGENT S Nedir

S Nasıl Satın Alınır

HTX.com’a hoş geldiniz! Sonic (S) satın alma işlemlerini basit ve kullanışlı bir hâle getirdik. Adım adım açıkladığımız rehberimizi takip ederek kripto yolculuğunuza başlayın. 1. Adım: HTX Hesabınızı OluşturunHTX'te ücretsiz bir hesap açmak için e-posta adresinizi veya telefon numaranızı kullanın. Sorunsuzca kaydolun ve tüm özelliklerin kilidini açın. Hesabımı Aç2. Adım: Kripto Satın Al Bölümüne Gidin ve Ödeme Yönteminizi SeçinKredi/Banka Kartı: Visa veya Mastercard'ınızı kullanarak anında Sonic (S) satın alın.Bakiye: Sorunsuz bir şekilde işlem yapmak için HTX hesap bakiyenizdeki fonları kullanın.Üçüncü Taraflar: Kullanımı kolaylaştırmak için Google Pay ve Apple Pay gibi popüler ödeme yöntemlerini ekledik.P2P: HTX'teki diğer kullanıcılarla doğrudan işlem yapın.Borsa Dışı (OTC): Yatırımcılar için kişiye özel hizmetler ve rekabetçi döviz kurları sunuyoruz.3. Adım: Sonic (S) Varlıklarınızı SaklayınSonic (S) satın aldıktan sonra HTX hesabınızda saklayın. Alternatif olarak, blok zinciri transferi yoluyla başka bir yere gönderebilir veya diğer kripto para birimlerini takas etmek için kullanabilirsiniz.4. Adım: Sonic (S) Varlıklarınızla İşlem YapınHTX'in spot piyasasında Sonic (S) ile kolayca işlemler yapın.Hesabınıza erişin, işlem çiftinizi seçin, işlemlerinizi gerçekleştirin ve gerçek zamanlı olarak izleyin. Hem yeni başlayanlar hem de deneyimli yatırımcılar için kullanıcı dostu bir deneyim sunuyoruz.

1.3k Toplam GörüntülenmeYayınlanma 2025.01.15Güncellenme 2025.03.21

S Nasıl Satın Alınır

Tartışmalar

HTX Topluluğuna hoş geldiniz. Burada, en son platform gelişmeleri hakkında bilgi sahibi olabilir ve profesyonel piyasa görüşlerine erişebilirsiniz. Kullanıcıların S (S) fiyatı hakkındaki görüşleri aşağıda sunulmaktadır.

活动图片