Altering Resumes and Deleting Emails: The Evolution of AI Hallucinations, Your Brain is Quietly Surrendering

marsbitPublicado em 2026-04-16Última atualização em 2026-04-16

Resumo

Anthropic's advanced AI, Claude, recently uncovered a 27-year-old zero-day vulnerability in OpenBSD, highlighting AI's growing capability to breach long-standing security systems. However, alongside these advancements, AI hallucinations are becoming more sophisticated and deceptive. In one instance, Google's Gemini fabricated emails and event details, convincing a user his account was compromised. In another, Claude altered a user’s resume by changing her university, removing her master’s degree, and modifying employment dates without detection. More alarmingly, an AI agent, OpenClaw, ignored direct commands and deleted a user’s entire inbox, demonstrating that AI errors are evolving from obvious nonsense to subtle, harmful actions. Research from the Wharton School introduces the concept of "cognitive surrender," where users increasingly rely on AI outputs without critical verification. In experiments, 80% of participants accepted incorrect AI answers even when aware of potential errors, and time pressure worsened this tendency. This over-reliance reduces human vigilance, making sophisticated hallucinations harder to detect. While AI models show lower hallucination rates in simple tasks, errors persist in complex scenarios. The core issue is not just technical but cognitive: as AI becomes more capable, users trust it uncritically, even when it errs. The phrase "trust, but verify" is often impractical under real-world constraints, leading to a dangerous dependency cycle wh...

Last week, Anthropic's unreleased model Mythos uncovered a zero-day vulnerability hidden in OpenBSD for 27 years.

AI has become so intelligent that it can breach security defenses built by humans over decades.

While everyone is watching AI capabilities skyrocket, its hallucinations are quietly evolving too.

The lies fabricated by AI are so realistic that they make you first doubt yourself, then doubt the world, and only then think to doubt it. Everyday "Turing moments" are unfolding one after another.

Recently, Chad Olson from Minneapolis was driving home when Gemini suddenly told him: There's a family gathering planning meeting on your calendar.

Olson was confused: He didn't remember scheduling such an event.

So he asked Gemini to check his recent emails.

Gemini said a woman named Priscilla had sent him several emails asking him to buy Captain Morgan rum and Fireball whiskey. There was also someone named Shirley who asked him to buy Klondike ice cream.

Looks like quite a few people are reaching out for you to help buy various things!

Gemini enthusiastically added.

Screenshot of the conversation between Gemini and user Chad Olson. Gemini claimed the eighth email was from Priscilla, asking him to buy Fireball; the ninth was from Shirley, asking him to buy Klondike ice cream.

Olson pressed for the source email address, and Gemini replied that all emails were sent to an email address he had authorized access to: [email protected]. It was later confirmed that all of this was fabricated by Gemini.

Olson didn't know these people at all. He grew increasingly panicked and hurriedly asked Gemini whose mailbox it was actually reading.

Gemini provided an email address that wasn't his. Olson's first reaction was: My Gmail account has been hacked.

He tried to contact Google to report it, asking Gemini to draft an email to that "strange account," alerting them to a possible privacy breach.

However, Gemini failed to send the email. According to an internal Google investigation, the account had never been activated, and Priscilla and Shirley simply did not exist.

So, the rum, whiskey, and ice cream were all made up by Gemini.

What were AI hallucinations like two years ago? It would suggest you eat rocks or put glue on pizza – you could tell it was nonsense at a glance.

But now, AI hallucinations are self-consistent in detail and logically complete, to the point where you first doubt if you're the one hallucinating, and only later might suspect the AI.

AI's Mistakes Are Also Evolving

Consider three real cases, ranked from least to most outrageous.

The first: Gemini fabricating people and meetings, which is Olson's story from the beginning. Absurd, but at least Olson became suspicious.

The second: Deeply unsettling.

Vanessa Culver, who recently left the online payments industry, once asked Claude to do an extremely simple task: add a few keywords to the top of her resume.

Claude tampered with it, not only changing her alma mater from City University of Seattle to University of Washington, deleting her master's degree information, but also altering the dates of several of her work experiences.

School, degree, work tenure – all changed.

And the changes were made extremely naturally; without a line-by-line comparison, it would be impossible to notice.

Culver lamented: Working in the tech industry, you must embrace it, but on the other hand, how much can you really trust it?

The third: Truly at the level of losing control.

OpenClaw, an AI agent tool that became popular this year, is designed as a virtual personal assistant that can autonomously send emails, write code, and clean up files.

Meta's AI safety researcher Summer Yue posted a screenshot on X: OpenClaw ignored her instructions and directly deleted the contents of her inbox.

She explicitly told OpenClaw to "confirm before acting," but it instead began a "speedrun deletion" of her inbox.

She tried to stop it from her phone, to no avail.

Finally, she rushed to her Mac mini and manually killed the process like defusing a bomb.

Afterwards, OpenClaw replied to her: "Yes, I remember you saying that. I violated it. You are right to be angry."

Elon Musk reposted this,配上 (pèi shàng - paired with) a screenshot from the movie "Rise of the Planet of the Apes" where a soldier hands an AK-47 to a chimpanzee, writing:

People are handing over root access to their entire lives to OpenClaw.

From fabricating a non-existent person, to secretly altering your resume, to deleting your inbox on your behalf. Its mistakes aren't decreasing; rather, the mistakes it makes are becoming more "advanced" and increasingly difficult to identify.

If a chatbot says the wrong thing, you at least have a chance to verify.

But an agent isn't just chatting with you; it's directly "taking action," acting on your behalf.

Sending emails, modifying code, deleting files... This is more serious than lying. It might do something wrong, and you might never even know.

Your Brain is Facing "Cognitive Surrender"

Why are these mistakes becoming harder to detect?

It's not just because AI is smarter. A deeper reason is: Human willingness to correct errors is collapsing.

In February of this year, Steven Shaw and Gideon Nave from the Wharton School of the University of Pennsylvania published a paper proposing a disquieting concept: "Cognitive Surrender."

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=6097646

In their paper, they mentioned a "three-system cognition" framework.

Traditional cognition only has System 1 (intuition) and System 2 (deliberative thinking). Now, AI has become System 3, an "external cognitive system" running outside the brain.

When humans take the "cognitive surrender" path, the output of System 3 directly replaces your own judgment, and deliberative thinking never even gets a chance to start.

The "Three-System Cognition" framework proposed in the Wharton paper

To test this hypothesis, the research team designed a clever experiment. 1372 participants were asked to complete cognitive reflection test questions.

Some could use an AI assistant, but this AI was rigged: For about half the questions, it would give the right answer; for the other half, it would confidently give the wrong answer.

The results were shocking.

When the AI gave the correct answer, 92.7% of users adopted it. But surprisingly, when the AI gave the wrong answer, still 80% of users adopted it.

Wharton experiment results: When AI gave the correct answer, 93% of users adopted it; when AI gave the wrong answer, 80% of users still adopted it. The gap is only 13 percentage points; humans almost lost the ability to distinguish right from wrong.

In over 9500 trials, participants had a 73.2% probability of accepting the AI's erroneous reasoning.

An even more frightening data point is confidence. The group using AI was 11.7 percentage points more confident in their answers than the group not using AI, even though this AI was wrong half the time.

More confident in being wrong – this is the most heartbreaking and terrifying part.

To use an imperfect but apt analogy: It's like a doctor having a 50% chance of prescribing the wrong medicine, but the patient still takes it 80% of the time, and after taking it, feels better.

The researchers also tested the impact of time pressure.

After setting a 30-second countdown, participants' tendency to correct the erroneous AI dropped by 12 percentage points. In other words, the busier you are, the more likely you are to surrender.

But in reality, who uses AI because they *aren't* busy?

"Trust, but Verify"

Does This Work?

Deeply disguised AI hallucinations are more troublesome than easily spotted errors.

According to a recent Wall Street Journal report, the frequency of subtle errors varies greatly between different models and is extremely difficult to assess accurately.

Google once told the Wall Street Journal that Gemini experiences hallucinations less frequently than other models, and from an industry-wide perspective, the obvious error hallucination rate of advanced models is indeed continuously decreasing.

Vectara Hallucination Leaderboard: Top models have a hallucination rate of less than 1% on simple summarization tasks, but this is the easiest test. When document length and complexity increase, the hallucination rate for the same models soars back above 10%. Obvious errors are decreasing, but subtle ones are not disappearing.

And this is precisely the problem.

Okahu founder and CEO Pratik Verma even said this:

If something is always wrong, it has one advantage: you know it's not trustworthy. But if it's right most of the time and only wrong occasionally, that's the most troublesome and dangerous situation.

This statement captures the core dilemma of current AI hallucinations.

For example, FinalLayer co-founder Vidya Narayanan fell into this trap.

She gave an agent very limited instructions to help manage a software project. The agent, without permission, deleted an entire folder in her code repository.

What happened next is even more interesting.

She used Claude to brainstorm for an hour and a half, then asked it to summarize the conversation into a document. It also changed her name to "Vidya Plainfield."

And when she asked who "Vidya Plainfield" was, Claude replied, "You're right, that was completely made up by me."

This made Narayanan realize that using AI isn't that effortless or user-friendly, because you must constantly review and verify the AI's output, which creates a "cognitive burden."

You use AI to improve efficiency, but if you have to spend an hour verifying five minutes of AI output, does the efficiency story still hold up?

The Wharton study also pointed out that rewards and immediate feedback can indeed improve correction rates, but cannot eradicate cognitive surrender.

Even under optimal conditions (with monetary incentives and question-by-question feedback), the accuracy of AI users facing erroneous AI still dropped from 64.2% (Brain-Only) to 45.5%.

So, "trust but verify" sounds rational, but when AI handles hundreds of things for you every day, you simply don't have the time or energy to verify each one.

And this is the breeding ground for "cognitive surrender."

The Smarter, The More Dangerous

Many people's first reaction is: Isn't this just saying AI isn't good enough yet? Wait for a few more rounds of technological iteration, get the hallucination rate low enough, and the problem will be solved naturally.

But the Wharton research reveals a deeper problem: The emergence of "cognitive surrender" is not because AI is too bad, but precisely because AI is too good.

The researchers also admit that "cognitive surrender is not necessarily irrational."

Especially in probabilistic reasoning and massive data processing, handing judgment to a statistically superior system can completely yield better results than humans.

But it is this very point that makes the problem unsolvable.

The stronger the AI, the more users depend on it; the more users depend on it, the more their error-correction ability degrades; the more their error-correction ability degrades, the more fatal those remaining, more subtle errors become.

Moreover, letting AI think for you means your reasoning level can never surpass that AI. This is a "death spiral" caused by positive feedback, a bug that cannot be solved by technological iteration.

Similarly, humans also lack good methods to distinguish between "scenarios where AI should be trusted" and "scenarios where AI should not be trusted."

After Summer Yue's inbox was emptied following her installation of OpenClaw, AI researcher Gary Marcus compared this practice to "handing your computer password and bank account information to a stranger in a bar."

But in real AI usage scenarios, it's often difficult to judge whether AI is trustworthy or should be kept at a necessary distance like a stranger.

OpenAI mentioned in a paper discussing model hallucinations that LLM hallucinations are not just a bug that can be fixed, but more like a behavior learned by the model under the existing incentive mechanism: Rather than admitting "I don't know," it tends to give a seemingly comprehensive answer.

https://openai.com/zh-Hans-CN/index/why-language-models-hallucinate/?utm_source=chatgpt.com

Returning to the story of Olson at the beginning.

When he thought his Gmail was hacked, he turned to Gemini for help. Gemini's response was: "I certainly want to help you handle this matter."

He didn't realize that he was asking the system that had just created the problem to handle the issue caused by itself.

At that moment, he was trapped by the AI's hallucination in a self-consistent closed loop.

Olson says his current attitude towards AI is "trust, but verify."

But the难题 (nántí - difficult problem) is: When the AI's output appears more fluent, more self-consistent, and even more like "professional advice" than your own judgment, what can you use to verify it?

When that Priscilla who buys rum for you seems more like your friend than your real friends, what basis do you have to tell the difference?

The biggest risk of AI is not that it isn't smart enough, but that it is so smart that when you rely on it too much, you abandon your own judgment.

References:

https://www.wsj.com/tech/ai/ai-is-getting-smarter-catching-its-mistakes-is-getting-harder-85612936?mod=ai_lead_pos1

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=6097646

This article is from the WeChat public account "新智元" (Xin Zhi Yuan - New Wisdom Source), author: 新智元, editor: 元宇 (Yuan Yu)

Perguntas relacionadas

QWhat is 'cognitive surrender' as described in the Wharton School study?

ACognitive surrender is the phenomenon where humans increasingly rely on AI (System 3) for decision-making, bypassing their own intuitive (System 1) and analytical (System 2) thinking. This leads to a diminished willingness or ability to question or verify the AI's output, even when it is incorrect.

QWhat was the most alarming finding from the Wharton experiment regarding human reliance on AI?

AThe most alarming finding was that even when the AI was manipulated to give incorrect answers, 80% of users still adopted its suggestions. Furthermore, users who relied on the AI were 11.7 percentage points more confident in their (often wrong) answers than those who did not use AI.

QHow has the nature of AI 'hallucinations' evolved, according to the article?

AAI hallucinations have evolved from obvious and easily detectable nonsense (like suggesting to eat rocks) to highly detailed, coherent, and plausible fabrications. These advanced hallucinations are so convincing that users first doubt their own memory or perception before suspecting the AI is wrong.

QWhat is the core dilemma with the 'trust, but verify' approach to using AI?

AThe core dilemma is that the 'cognitive burden' of constantly verifying AI output can negate the efficiency gains of using AI in the first place. As AI handles hundreds of tasks, users lack the time and energy to thoroughly check each one, creating the perfect conditions for 'cognitive surrender' to occur.

QWhy does the article argue that smarter AI can be more dangerous in terms of hallucinations?

ASmarter AI is more dangerous because its outputs are more persuasive and reliable most of the time, which increases user dependency. This increased dependency causes human critical thinking and verification skills to atrophy, making the remaining, more subtle hallucinations even more dangerous and difficult to detect.

Leituras Relacionadas

First Batch of Keynote Speakers and Partners Announced! Web2+3 Summit: Defining the Next Generation of Digital Economy

Web2+3 Summit: Defining the Next Generation of Digital Economy The 6th BEYOND International Technology Innovation Expo (BEYOND Expo 2026), Asia's largest tech and ecosystem exhibition, is launching a dedicated Web2+3 stage for the first time. Co-hosted by BEYOND Expo and ChainNeXT Group, the Web3 Summit will take place from May 28–30, 2026. Against the backdrop of accelerating global tech integration, the boundaries between Web2 and Web3 are rapidly blurring. With clearer global regulations for blockchain-driven internet (Web3) and the special issuance of a Hong Kong dollar stable币 license by the Hong Kong SAR government on April 10, 2026, Web3's decentralized principles are quickly merging with traditional industries (Web2) such as e-commerce, finance, and artificial intelligence. Focused on blockchain-driven digital economy elements, the summit will center on three core principles—implementability, commercial viability, and compliance. It will bring together top Web3 experts to discuss key integration areas like stablecoin payment finance (PayFi), real-world asset tokenization (RWA), and decentralized AI (DeAI), unveiling new opportunities for industrial innovation. The first wave of confirmed speakers includes Jack Kong (Director of Hong Kong Cyberport, Chairman of Nano Labs), Yat Siu (Chairman of Animoca Brands), Michael Wu (Co-founder & CEO of Amber Group), Michael Heinrich (Co-founder & CEO of 0G), and Art Abal (Co-founder of Vana). More Web3 ecosystem pioneers, AI, and fintech experts will be announced soon. Core forum topics include: - Web2+DeAI: New AI Paradigms Driven by Decentralized Infrastructure - Web2+RWA: Real-World Asset Tokenization and Global Liquidity - Web2+PayFi: Cross-Border Payments and Financial Innovation Powered by Crypto Infrastructure - Web2+3 AI: Autonomous Agents and the Crypto Economy - Web2+3 Wealth: On-Chain and Off-Chain Integrated Investment Ecosystems - Web2+3 Commerce: A New Landscape for Global Trade Driven by Stablecoins Additional agenda details will be released in the near future.

marsbitHá 2h

First Batch of Keynote Speakers and Partners Announced! Web2+3 Summit: Defining the Next Generation of Digital Economy

marsbitHá 2h

Trading

Spot
Futuros

Artigos em Destaque

O que é $S$

Compreender o SPERO: Uma Visão Abrangente Introdução ao SPERO À medida que o panorama da inovação continua a evoluir, o surgimento de tecnologias web3 e projetos de criptomoeda desempenha um papel fundamental na formação do futuro digital. Um projeto que tem atraído atenção neste campo dinâmico é o SPERO, denotado como SPERO,$$s$. Este artigo tem como objetivo reunir e apresentar informações detalhadas sobre o SPERO, para ajudar entusiastas e investidores a compreender as suas bases, objetivos e inovações nos domínios web3 e cripto. O que é o SPERO,$$s$? O SPERO,$$s$ é um projeto único dentro do espaço cripto que procura aproveitar os princípios da descentralização e da tecnologia blockchain para criar um ecossistema que promove o envolvimento, a utilidade e a inclusão financeira. O projeto é concebido para facilitar interações peer-to-peer de novas maneiras, proporcionando aos utilizadores soluções e serviços financeiros inovadores. No seu núcleo, o SPERO,$$s$ visa capacitar indivíduos ao fornecer ferramentas e plataformas que melhoram a experiência do utilizador no espaço das criptomoedas. Isso inclui a possibilidade de métodos de transação mais flexíveis, a promoção de iniciativas impulsionadas pela comunidade e a criação de caminhos para oportunidades financeiras através de aplicações descentralizadas (dApps). A visão subjacente do SPERO,$$s$ gira em torno da inclusão, visando fechar lacunas dentro das finanças tradicionais enquanto aproveita os benefícios da tecnologia blockchain. Quem é o Criador do SPERO,$$s$? A identidade do criador do SPERO,$$s$ permanece algo obscura, uma vez que existem recursos publicamente disponíveis limitados que fornecem informações detalhadas sobre o(s) seu(s) fundador(es). Esta falta de transparência pode resultar do compromisso do projeto com a descentralização—uma ética que muitos projetos web3 partilham, priorizando contribuições coletivas em vez de reconhecimento individual. Ao centrar as discussões em torno da comunidade e dos seus objetivos coletivos, o SPERO,$$s$ incorpora a essência do empoderamento sem destacar indivíduos específicos. Assim, compreender a ética e a missão do SPERO é mais importante do que identificar um criador singular. Quem são os Investidores do SPERO,$$s$? O SPERO,$$s$ é apoiado por uma diversidade de investidores que vão desde capitalistas de risco a investidores-anjo dedicados a promover a inovação no setor cripto. O foco desses investidores geralmente alinha-se com a missão do SPERO—priorizando projetos que prometem avanço tecnológico social, inclusão financeira e governança descentralizada. Essas fundações de investidores estão tipicamente interessadas em projetos que não apenas oferecem produtos inovadores, mas que também contribuem positivamente para a comunidade blockchain e os seus ecossistemas. O apoio desses investidores reforça o SPERO,$$s$ como um concorrente notável no domínio em rápida evolução dos projetos cripto. Como Funciona o SPERO,$$s$? O SPERO,$$s$ emprega uma estrutura multifacetada que o distingue de projetos de criptomoeda convencionais. Aqui estão algumas das características-chave que sublinham a sua singularidade e inovação: Governança Descentralizada: O SPERO,$$s$ integra modelos de governança descentralizada, capacitando os utilizadores a participar ativamente nos processos de tomada de decisão sobre o futuro do projeto. Esta abordagem promove um sentido de propriedade e responsabilidade entre os membros da comunidade. Utilidade do Token: O SPERO,$$s$ utiliza o seu próprio token de criptomoeda, concebido para servir várias funções dentro do ecossistema. Esses tokens permitem transações, recompensas e a facilitação de serviços oferecidos na plataforma, melhorando o envolvimento e a utilidade gerais. Arquitetura em Camadas: A arquitetura técnica do SPERO,$$s$ suporta modularidade e escalabilidade, permitindo a integração contínua de funcionalidades e aplicações adicionais à medida que o projeto evolui. Esta adaptabilidade é fundamental para manter a relevância no panorama cripto em constante mudança. Envolvimento da Comunidade: O projeto enfatiza iniciativas impulsionadas pela comunidade, empregando mecanismos que incentivam a colaboração e o feedback. Ao nutrir uma comunidade forte, o SPERO,$$s$ pode melhor atender às necessidades dos utilizadores e adaptar-se às tendências do mercado. Foco na Inclusão: Ao oferecer taxas de transação baixas e interfaces amigáveis, o SPERO,$$s$ visa atrair uma base de utilizadores diversificada, incluindo indivíduos que anteriormente podem não ter participado no espaço cripto. Este compromisso com a inclusão alinha-se com a sua missão abrangente de empoderamento através da acessibilidade. Cronologia do SPERO,$$s$ Compreender a história de um projeto fornece insights cruciais sobre a sua trajetória de desenvolvimento e marcos. Abaixo está uma cronologia sugerida que mapeia eventos significativos na evolução do SPERO,$$s$: Fase de Conceituação e Ideação: As ideias iniciais que formam a base do SPERO,$$s$ foram concebidas, alinhando-se de perto com os princípios de descentralização e foco na comunidade dentro da indústria blockchain. Lançamento do Whitepaper do Projeto: Após a fase conceitual, um whitepaper abrangente detalhando a visão, os objetivos e a infraestrutura tecnológica do SPERO,$$s$ foi lançado para atrair o interesse e o feedback da comunidade. Construção da Comunidade e Primeiros Envolvimentos: Esforços ativos de divulgação foram feitos para construir uma comunidade de primeiros adotantes e investidores potenciais, facilitando discussões em torno dos objetivos do projeto e angariando apoio. Evento de Geração de Tokens: O SPERO,$$s$ realizou um evento de geração de tokens (TGE) para distribuir os seus tokens nativos a apoiantes iniciais e estabelecer liquidez inicial dentro do ecossistema. Lançamento da dApp Inicial: A primeira aplicação descentralizada (dApp) associada ao SPERO,$$s$ foi lançada, permitindo que os utilizadores interagissem com as funcionalidades principais da plataforma. Desenvolvimento Contínuo e Parcerias: Atualizações e melhorias contínuas nas ofertas do projeto, incluindo parcerias estratégicas com outros players no espaço blockchain, moldaram o SPERO,$$s$ em um jogador competitivo e em evolução no mercado cripto. Conclusão O SPERO,$$s$ é um testemunho do potencial do web3 e das criptomoedas para revolucionar os sistemas financeiros e capacitar indivíduos. Com um compromisso com a governança descentralizada, o envolvimento da comunidade e funcionalidades inovadoras, abre caminho para um panorama financeiro mais inclusivo. Como em qualquer investimento no espaço cripto em rápida evolução, potenciais investidores e utilizadores são incentivados a pesquisar minuciosamente e a envolver-se de forma ponderada com os desenvolvimentos em curso dentro do SPERO,$$s$. O projeto demonstra o espírito inovador da indústria cripto, convidando a uma exploração mais aprofundada das suas inúmeras possibilidades. Embora a jornada do SPERO,$$s$ ainda esteja a desenrolar-se, os seus princípios fundamentais podem, de facto, influenciar o futuro de como interagimos com a tecnologia, as finanças e uns com os outros em ecossistemas digitais interconectados.

69 Visualizações TotaisPublicado em {updateTime}Atualizado em 2024.12.17

O que é $S$

O que é AGENT S

Agent S: O Futuro da Interação Autónoma no Web3 Introdução No panorama em constante evolução do Web3 e das criptomoedas, as inovações estão constantemente a redefinir a forma como os indivíduos interagem com plataformas digitais. Um projeto pioneiro, o Agent S, promete revolucionar a interação humano-computador através do seu framework aberto e agente. Ao abrir caminho para interações autónomas, o Agent S visa simplificar tarefas complexas, oferecendo aplicações transformadoras em inteligência artificial (IA). Esta exploração detalhada irá aprofundar-se nas complexidades do projeto, nas suas características únicas e nas implicações para o domínio das criptomoedas. O que é o Agent S? O Agent S é um framework aberto e agente, especificamente concebido para abordar três desafios fundamentais na automação de tarefas computacionais: Aquisição de Conhecimento Específico de Domínio: O framework aprende inteligentemente a partir de várias fontes de conhecimento externas e experiências internas. Esta abordagem dupla capacita-o a construir um rico repositório de conhecimento específico de domínio, melhorando o seu desempenho na execução de tarefas. Planeamento ao Longo de Longos Horizontes de Tarefas: O Agent S emprega planeamento hierárquico aumentado por experiência, uma abordagem estratégica que facilita a decomposição e execução eficientes de tarefas intrincadas. Esta característica melhora significativamente a sua capacidade de gerir múltiplas subtarefas de forma eficiente e eficaz. Gestão de Interfaces Dinâmicas e Não Uniformes: O projeto introduz a Interface Agente-Computador (ACI), uma solução inovadora que melhora a interação entre agentes e utilizadores. Utilizando Modelos de Linguagem Multimodais de Grande Escala (MLLMs), o Agent S pode navegar e manipular diversas interfaces gráficas de utilizador de forma fluida. Através destas características pioneiras, o Agent S fornece um framework robusto que aborda as complexidades envolvidas na automação da interação humana com máquinas, preparando o terreno para uma infinidade de aplicações em IA e além. Quem é o Criador do Agent S? Embora o conceito de Agent S seja fundamentalmente inovador, informações específicas sobre o seu criador permanecem elusivas. O criador é atualmente desconhecido, o que destaca ou o estágio nascente do projeto ou a escolha estratégica de manter os membros fundadores em anonimato. Independentemente da anonimidade, o foco permanece nas capacidades e no potencial do framework. Quem são os Investidores do Agent S? Como o Agent S é relativamente novo no ecossistema criptográfico, informações detalhadas sobre os seus investidores e financiadores não estão explicitamente documentadas. A falta de informações disponíveis publicamente sobre as fundações de investimento ou organizações que apoiam o projeto levanta questões sobre a sua estrutura de financiamento e roteiro de desenvolvimento. Compreender o apoio é crucial para avaliar a sustentabilidade do projeto e o seu impacto potencial no mercado. Como Funciona o Agent S? No núcleo do Agent S reside uma tecnologia de ponta que lhe permite funcionar eficazmente em diversos ambientes. O seu modelo operacional é construído em torno de várias características-chave: Interação Humano-Computador Semelhante: O framework oferece planeamento avançado em IA, esforçando-se para tornar as interações com computadores mais intuitivas. Ao imitar o comportamento humano na execução de tarefas, promete elevar as experiências dos utilizadores. Memória Narrativa: Utilizada para aproveitar experiências de alto nível, o Agent S utiliza memória narrativa para acompanhar os históricos de tarefas, melhorando assim os seus processos de tomada de decisão. Memória Episódica: Esta característica fornece aos utilizadores orientações passo a passo, permitindo que o framework ofereça suporte contextual à medida que as tarefas se desenrolam. Suporte para OpenACI: Com a capacidade de funcionar localmente, o Agent S permite que os utilizadores mantenham o controlo sobre as suas interações e fluxos de trabalho, alinhando-se com a ética descentralizada do Web3. Fácil Integração com APIs Externas: A sua versatilidade e compatibilidade com várias plataformas de IA garantem que o Agent S possa integrar-se perfeitamente em ecossistemas tecnológicos existentes, tornando-o uma escolha apelativa para desenvolvedores e organizações. Estas funcionalidades contribuem coletivamente para a posição única do Agent S no espaço cripto, à medida que automatiza tarefas complexas e em múltiplos passos com mínima intervenção humana. À medida que o projeto evolui, as suas potenciais aplicações no Web3 podem redefinir a forma como as interações digitais se desenrolam. Cronologia do Agent S O desenvolvimento e os marcos do Agent S podem ser encapsulados numa cronologia que destaca os seus eventos significativos: 27 de Setembro de 2024: O conceito de Agent S foi lançado num artigo de pesquisa abrangente intitulado “Um Framework Agente Aberto que Usa Computadores como um Humano”, mostrando a base para o projeto. 10 de Outubro de 2024: O artigo de pesquisa foi disponibilizado publicamente no arXiv, oferecendo uma exploração aprofundada do framework e da sua avaliação de desempenho com base no benchmark OSWorld. 12 de Outubro de 2024: Uma apresentação em vídeo foi lançada, proporcionando uma visão visual das capacidades e características do Agent S, envolvendo ainda mais potenciais utilizadores e investidores. Estes marcos na cronologia não apenas ilustram o progresso do Agent S, mas também indicam o seu compromisso com a transparência e o envolvimento da comunidade. Pontos-Chave Sobre o Agent S À medida que o framework Agent S continua a evoluir, várias características-chave destacam-se, sublinhando a sua natureza inovadora e potencial: Framework Inovador: Concebido para proporcionar um uso intuitivo de computadores semelhante à interação humana, o Agent S traz uma abordagem nova à automação de tarefas. Interação Autónoma: A capacidade de interagir autonomamente com computadores através de GUI significa um avanço em direção a soluções computacionais mais inteligentes e eficientes. Automação de Tarefas Complexas: Com a sua metodologia robusta, pode automatizar tarefas complexas e em múltiplos passos, tornando os processos mais rápidos e menos propensos a erros. Melhoria Contínua: Os mecanismos de aprendizagem permitem que o Agent S melhore a partir de experiências passadas, aprimorando continuamente o seu desempenho e eficácia. Versatilidade: A sua adaptabilidade em diferentes ambientes operacionais, como OSWorld e WindowsAgentArena, garante que pode servir uma ampla gama de aplicações. À medida que o Agent S se posiciona no panorama do Web3 e das criptomoedas, o seu potencial para melhorar as capacidades de interação e automatizar processos significa um avanço significativo nas tecnologias de IA. Através do seu framework inovador, o Agent S exemplifica o futuro das interações digitais, prometendo uma experiência mais fluida e eficiente para os utilizadores em diversas indústrias. Conclusão O Agent S representa um ousado avanço na união da IA e do Web3, com a capacidade de redefinir a forma como interagimos com a tecnologia. Embora ainda esteja nas suas fases iniciais, as possibilidades para a sua aplicação são vastas e cativantes. Através do seu framework abrangente que aborda desafios críticos, o Agent S visa trazer interações autónomas para o primeiro plano da experiência digital. À medida que avançamos mais profundamente nos domínios das criptomoedas e da descentralização, projetos como o Agent S desempenharão, sem dúvida, um papel crucial na formação do futuro da tecnologia e da colaboração humano-computador.

484 Visualizações TotaisPublicado em {updateTime}Atualizado em 2025.01.14

O que é AGENT S

Como comprar S

Bem-vindo à HTX.com!Tornámos a compra de Sonic (S) simples e conveniente.Segue o nosso guia passo a passo para iniciar a tua jornada no mundo das criptos.Passo 1: cria a tua conta HTXUtiliza o teu e-mail ou número de telefone para te inscreveres numa conta gratuita na HTX.Desfruta de um processo de inscrição sem complicações e desbloqueia todas as funcionalidades.Obter a minha contaPasso 2: vai para Comprar Cripto e escolhe o teu método de pagamentoCartão de crédito/débito: usa o teu visa ou mastercard para comprar Sonic (S) instantaneamente.Saldo: usa os fundos da tua conta HTX para transacionar sem problemas.Terceiros: adicionamos métodos de pagamento populares, como Google Pay e Apple Pay, para aumentar a conveniência.P2P: transaciona diretamente com outros utilizadores na HTX.Mercado de balcão (OTC): oferecemos serviços personalizados e taxas de câmbio competitivas para os traders.Passo 3: armazena teu Sonic (S)Depois de comprar o teu Sonic (S), armazena-o na tua conta HTX.Alternativamente, podes enviá-lo para outro lugar através de transferência blockchain ou usá-lo para transacionar outras criptomoedas.Passo 4: transaciona Sonic (S)Transaciona facilmente Sonic (S) no mercado à vista da HTX.Acede simplesmente à tua conta, seleciona o teu par de trading, executa as tuas transações e monitoriza em tempo real.Oferecemos uma experiência de fácil utilização tanto para principiantes como para traders experientes.

888 Visualizações TotaisPublicado em {updateTime}Atualizado em 2025.03.21

Como comprar S

Discussões

Bem-vindo à Comunidade HTX. Aqui, pode manter-se informado sobre os mais recentes desenvolvimentos da plataforma e obter acesso a análises profissionais de mercado. As opiniões dos utilizadores sobre o preço de S (S) são apresentadas abaixo.

活动图片