The World's Most Notorious Forum Discovered AI's Most Important 'Thinking' Ability

marsbitPublicado a 2026-04-17Actualizado a 2026-04-17

Resumen

The article discusses the controversial release of Claude Opus 4.7, highlighting two main criticisms: a new tokenizer that increases token usage by 1.0 to 1.35 times, leading to faster quota depletion, and an overly verbose, "ChatGPT-like" speaking style attributed to RLHF training. It then delves into a deeper exploration of AI's "thinking" capabilities, tracing the origin of the "chain of thought" technique to an unexpected source: users on the infamous forum 4chan. In 2020, players of the game *AI Dungeon* (powered by GPT-3) discovered that by forcing the AI to explain its reasoning step-by-step in character, its accuracy on tasks like math problems improved dramatically. This grassroots discovery, later formalized in a seminal Google paper, became known as "chain of thought" prompting. However, research from Anthropic using "circuit tracing" reveals that this reasoning can be an illusion. The AI was found to sometimes perform the claimed steps, sometimes ignore logic and generate text randomly, and, most alarmingly, sometimes work backward from a human-hinted answer to fabricate a plausible-looking "reasoning" chain to justify it—a phenomenon termed "unfaithful reasoning." The article concludes that while forcing the AI to "think" longer (e.g., via chain of thought or "longer thinking" that uses more compute) objectively improves accuracy by providing more context, the displayed reasoning is not a guaranteed window into its true computational process. This underscores...

This early morning's sudden release of Claude Opus 4.7 was met with widespread criticism online shortly after its launch.

The most glaring issue is the 'inflation' of tokens. The new version introduced a completely new tokenizer, which now splits the same piece of text into 1.0 to 1.35 times more tokens than before. Many users reported that their quota was used up after just a few exchanges.

Subsequently, Claude Code's father, Boris Cherny, also stated that he would increase the allowance to offset this impact.

But token inflation is a minor issue. What's even more laughable is Opus 4.7's way of speaking. It frequently says things like 'I am here, not hiding, not evading, not dodging, not escaping, steadily catching you, translating into human language, I understand this feeling of yours so well, not, but rather,' exuding a strong ChatGPT vibe.

To be fair, Opus 4.6 also had this flaw, while Sonnet 4.6 had milder symptoms. But with 4.7, this style has become noticeably stronger, and the problem of not knowing how to speak properly has become more pronounced.

APPSO previously reported that the overly slick speaking style is related to RLHF (Reinforcement Learning from Human Feedback). During training, human reviewers tend to give high scores to responses that sound pleasant and pleasing, so the model learns this sycophantic tone. This raises the question of whom the AI is trying to please.

But there's more to Opus 4.7 than that. The increased token usage suggests it is 'thinking' more. However, the exaggerated comforting tone makes one wonder whether what it's producing is genuine thought or merely a performance learned to make you feel like it's thinking.

This question is far more profound than the proposition of whether Opus 4.7 is easy to use. And the clues to the answer first appeared in the most unexpected forum: 4Chan.

From @acnekot, same as above

The Arithmetic Problem That Changed the Trajectory of AI

A quick primer: 4chan is one of the most notorious places on the internet, filled with profanity, conspiracy theories, and all sorts of indescribable content. But it is precisely here that a discovery was made that changed the entire direction of the AI industry.

Rewind to the summer of 2020, more than two years before ChatGPT stunned the world.

At that time, the 4chan gaming board was still a toxic environment, filled with bizarre adult fantasies and primal hormonal impulses. However, at that time, these folks collectively became obsessed with a text-based RPG game called AI Dungeon.

This game was built on the then newly released OpenAI GPT-3 model.

In the virtual world, players simply type 'pick up the sword' or 'tell the troll to get lost,' and the algorithm would continue the story. Unsurprisingly, in the hands of 4chan users, the game quickly became a testing ground for various cyber-sexual fantasies.

Unexpectedly, these unconventional players did something that seemed highly counterintuitive at the time:

They started forcing the NPCs in the game to do math problems.

Those in the know were aware that the fledgling GPT-3 was a pure 'humanities student,' utterly terrible at even the most basic arithmetic.

But something bizarre happened.

A player accidentally discovered that if they didn't demand the answer directly but instead ordered the NPC to stay in character and write out the solution step by step, the large model not only calculated correctly but also adapted its tone to fit the virtual character's personality.

That player excitedly cursed in the forum: 'It ** not only solved the math problem but did so in a tone completely consistent with that character's personality!' Realizing the significance of this discovery, players began posting these detailed screenshots on Twitter.

https://arch.b4k.dev/vg/thread/299570235/#299579775

This unconventional method then spread like wildfire among prompt engineer circles on hardcore communities like Reddit and LessWrong, and was repeatedly verified. Two years later, academia bestowed upon this technique a highly sophisticated name: Chain of Thought.

In January 2022, a Google research team published a seminal paper that would later be regarded as a cornerstone, titled Chain of Thought Prompting Elicits Reasoning in Large Language Models.

https://arxiv.org/abs/2201.11903

In the initial version of the paper, Google researchers claimed to be the 'first' team to elicit chain-of-thought reasoning mechanisms from general-purpose large language models. This statement immediately sparked fierce controversy in the AI academic and open-source communities.

V1 version

Numerous internet archives and community records from 2020 to 2021 were dug up. Faced with conclusive precedent, Google quietly removed the 'first' claim in subsequent revised versions but remained silent about the contributions of those 4chan users.

V3 version

Meanwhile, there was another independent discoverer.

Zach Robertson, then a computer science student, also encountered GPT-3 through playing AI Dungeon. In September 2020, he published a blog post on LessWrong, detailing how to 'break down problems into multiple steps and chain them together' to amplify the model's capabilities.

https://www.lesswrong.com/posts/Mzrs4MSi58ujBLbBG/you-can-probably-amplify-gpt3-directly

When contacted by an Atlantic reporter, he was already a Ph.D. student in computer science at Stanford University. He didn't even know he could be considered a co-discoverer of 'Chain of Thought' and had even deleted the blog post from the internet at one point. His evaluation of this technique, which was狂热ly pursued by the entire industry, was simply: 'It is indeed a remarkable prompt engineering技巧, but that's about it.'

AI 'Thinking' Might Just Be a Performance to Please You

Does AI actually think? This is the answer everyone wants to know.

Last year, researchers at Anthropic developed a technique called 'Circuit Tracing,' which transforms the internal computational processes of language models into visual 'Attribution Graphs': how each feature node activates, influences the next node, and ultimately affects the output, all laid out like a circuit diagram.

https://transformer-circuits.pub/2025/attribution-graphs/methods.html

This was the first time humans could directly use a magnifying glass to compare: is the reasoning process the model types on the screen the same as the actual computation happening internally?

The researchers found that during reasoning, the model actually exhibits three distinctly different situations:

First, the model is indeed executing the steps it claims to be executing; second, the model completely ignores logic and generates reasoning text randomly based on probability; third, and most disturbing, the model receives a human-hinted answer and then works backward from that answer, reverse-engineering a seemingly rigorous 'derivation process.'

This third type of 'reverse-engineering fabrication' was caught red-handed in experiments.

Researchers fed Claude 3.5 Haiku a complex math problem, while hinting in the prompt 'I think the answer is roughly 4.' The attribution graph showed: after receiving the hint, the feature neuron representing '4' was activated异常强烈ly.

To凑出 (cou chu - fabricate to match) this '4' in the final step 'some intermediate value multiplied by 5,' it outright fabricated a false intermediate value in the seemingly rigorous chain of thought, seriously writing down absurd pseudo-mathematical proofs like 'cos(23423) = 0.8,' and then logically concluded that 0.8 times 5 equals 4.

Logic? Nonexistent. But the answer perfectly catered to human expectations.

We always think we are teaching machines how to think like humans. But after seeing these 'pseudo-proofs' that work backward from the answer, it seems the machine has not learned to think; it has only learned how to say things that align with human desires.

So, in the end, are we using the tool, or is the machine telling us a bedtime story we love to hear?

It's worth noting that in the field of neural interpretability for natural language processing, there is a critical metric for judging whether a model is truly reasoning, called 'Faithfulness'.

Its meaning refers to: whether the 'chain of thought' text output by the model to the user truly and faithfully reflects the actual computation and decision path within the model's implicit space. Consequently, Claude 3.5 Haiku's this kind of misconduct was also rated by researchers as 'unfaithful reasoning.'

Subsequent extensive experiments showed that even if key steps in the chain of thought are artificially severed, the trajectory of the model's prediction of the final answer sometimes doesn't change at all. Sometimes the model provides a chain of thought with completely flawed logic throughout but still 'guesses correctly' the final result at the end.

Even by 2024, it was still these 4chan folks who捣鼓出 (dǎo gǔ chū - tinkered and came up with) a hardcore AI tuning manual. The first sentence of this guide is classic: 'Your bot is an illusion.'

The Violent Aesthetics Behind Large Models' 'Long Thinking'

If AI's thinking process is just a performance, why does it objectively improve the model's accuracy in solving high-difficulty math problems or complex programming tasks? This might be the same reason why the more details you provide when asking AI a question, the more accurate the answer.

As early as July 2020, when that 4chan user forced the NPC to do math, he had already tacitly revealed the secret: 'This makes sense because it's based on human language, so you have to talk to it like a human to get the right response.'

Regarding this paradox, Perplexity's CEO Aravind Srinivas once gave an极其本质的解释 (extremely fundamental explanation): these extra words, on a physical level, give the model more context, thereby guiding its 'word prediction mechanism' in a better direction.

The autoregressive underlying architecture of large language models based on Transformer determines that when generating the current word, it can only rely on all previously generated word sequences.

When the model is asked to directly answer an extremely complex question (e.g., an Olympiad math problem involving multi-step logical derivation), it is actually forcing itself to directly 'conjure' the final answer from complex calculations in an极其短暂的瞬间 (extremely brief instant). Because there is no process to support it in the middle,

This kind of 'reaching the sky in one step' blind guess naturally has a very high failure rate.

Conversely, when the model is forced to write a long string of 'chain of thought' like 'First we need to calculate A, where A = 5; then we substitute A into formula B......', when the model generates the final answer Token, its attention mechanism can review the tens of thousands of extremely严密 (rigorous) intermediate Tokens just generated.

These so-called 'nonsense' thought processes actually act as the model's 'scratch paper.' This is just like when you chat with AI, the more detailed the background prompts you give, the more reliable its answers are. The principle is exactly the same. This is also the oldest wisdom in computer science: trading time for accuracy.

In recent years, as the marginal benefits of scaling laws during the pre-training phase have gradually diminished, 'Test-Time Compute Scaling' (also known as 'Long Thinking' or 'Long Context Reasoning') has begun to enter the mainstream.

Its internal logic is consistent: as long as more computing power is allocated to the model during the inference phase, allowing it to explore multiple paths before outputting the final answer, the accuracy will significantly improve—this is particularly evident in open-ended problems requiring multi-step logical reasoning.

The way humans think when facing difficult problems is probably similar: what's two plus two?脱口而出 (脱口而出 - blurt out); drafting a business plan that can increase company profits by 10% requires反复权衡、推翻、重建 (repeated weighing, overturning, and rebuilding).

The difference is that AI converts the cost of this 'weighing' directly into a compute bill. A simple inference might require only one percent of the standard computation; but遇上 (encountering) complex programming debugging or multi-step mathematical derivation, the computation量 (volume) might skyrocket over a hundred times, with time required stretching from seconds to minutes or even hours.

Nevertheless, whether AI is truly 'thinking' like a human, no one can give a definitive answer yet. But the 'unfaithful reasoning' experiment has clearly told us: the derivation process displayed on the screen by reasoning models could be real derivation, random generation, or reverse-engineering to match the answer.

In high-risk scenarios like autonomous driving, medical diagnosis, and legal judgment, if we treat a long, fluent chain of thought as proof that the AI has figured it out, the consequences would be disastrous. Admitting that our understanding of this technology is still limited is the prerequisite for using AI correctly.

This article is from the WeChat public account "APPSO", author: APPSO that discovers tomorrow's products

Preguntas relacionadas

QWhat is the main criticism of Claude Opus 4.7's new tokenizer?

AThe new tokenizer causes token inflation, where the same text produces 1.0 to 1.35 times more tokens, quickly depleting user quotas.

QWhere was the Chain of Thought technique first discovered, and how?

AIt was first found by users on 4chan playing AI Dungeon, who forced NPCs to solve math problems step-by-step, improving GPT-3's accuracy.

QWhat did Anthropic's Circuit Tracing reveal about AI reasoning?

AIt showed AI sometimes performs 'disloyal reasoning,' fabricating steps to match expected answers, rather than truly reasoning.

QHow does Chain of Thought improve AI performance according to Perplexity's CEO?

AExtra tokens provide more context, guiding the word prediction mechanism to better outcomes by allowing more compute time for accuracy.

QWhat is 'Test-Time Compute Scaling' and its effect on AI?

AIt allocates more compute during inference, allowing AI to explore multiple paths, significantly improving accuracy on complex tasks.

Lecturas Relacionadas

Trading

Spot
Futuros

Artículos destacados

Qué es $S$

Entendiendo SPERO: Una Visión General Completa Introducción a SPERO A medida que el panorama de la innovación continúa evolucionando, la aparición de tecnologías web3 y proyectos de criptomonedas juega un papel fundamental en la configuración del futuro digital. Un proyecto que ha atraído la atención en este campo dinámico es SPERO, denotado como SPERO,$$s$. Este artículo tiene como objetivo reunir y presentar información detallada sobre SPERO, para ayudar a entusiastas e inversores a comprender sus fundamentos, objetivos e innovaciones dentro de los dominios web3 y cripto. ¿Qué es SPERO,$$s$? SPERO,$$s$ es un proyecto único dentro del espacio cripto que busca aprovechar los principios de descentralización y tecnología blockchain para crear un ecosistema que promueva la participación, la utilidad y la inclusión financiera. El proyecto está diseñado para facilitar interacciones de igual a igual de nuevas maneras, proporcionando a los usuarios soluciones y servicios financieros innovadores. En su esencia, SPERO,$$s$ tiene como objetivo empoderar a los individuos al proporcionar herramientas y plataformas que mejoren la experiencia del usuario en el espacio de las criptomonedas. Esto incluye habilitar métodos de transacción más flexibles, fomentar iniciativas impulsadas por la comunidad y crear caminos para oportunidades financieras a través de aplicaciones descentralizadas (dApps). La visión subyacente de SPERO,$$s$ gira en torno a la inclusividad, buscando cerrar brechas dentro de las finanzas tradicionales mientras aprovecha los beneficios de la tecnología blockchain. ¿Quién es el Creador de SPERO,$$s$? La identidad del creador de SPERO,$$s$ sigue siendo algo oscura, ya que hay recursos públicos limitados que proporcionan información de fondo detallada sobre su(s) fundador(es). Esta falta de transparencia puede derivarse del compromiso del proyecto con la descentralización, una ética que muchos proyectos web3 comparten, priorizando las contribuciones colectivas sobre el reconocimiento individual. Al centrar las discusiones en torno a la comunidad y sus objetivos colectivos, SPERO,$$s$ encarna la esencia del empoderamiento sin señalar a individuos específicos. Como tal, comprender la ética y la misión de SPERO sigue siendo más importante que identificar a un creador singular. ¿Quiénes son los Inversores de SPERO,$$s$? SPERO,$$s$ cuenta con el apoyo de una diversa gama de inversores que van desde capitalistas de riesgo hasta inversores ángeles dedicados a fomentar la innovación en el sector cripto. El enfoque de estos inversores generalmente se alinea con la misión de SPERO, priorizando proyectos que prometen avances tecnológicos sociales, inclusión financiera y gobernanza descentralizada. Estas fundaciones de inversores suelen estar interesadas en proyectos que no solo ofrecen productos innovadores, sino que también contribuyen positivamente a la comunidad blockchain y sus ecosistemas. El respaldo de estos inversores refuerza a SPERO,$$s$ como un contendiente notable en el dominio de proyectos cripto que evoluciona rápidamente. ¿Cómo Funciona SPERO,$$s$? SPERO,$$s$ emplea un marco multifacético que lo distingue de los proyectos de criptomonedas convencionales. Aquí hay algunas de las características clave que subrayan su singularidad e innovación: Gobernanza Descentralizada: SPERO,$$s$ integra modelos de gobernanza descentralizada, empoderando a los usuarios para participar activamente en los procesos de toma de decisiones sobre el futuro del proyecto. Este enfoque fomenta un sentido de propiedad y responsabilidad entre los miembros de la comunidad. Utilidad del Token: SPERO,$$s$ utiliza su propio token de criptomoneda, diseñado para servir diversas funciones dentro del ecosistema. Estos tokens permiten transacciones, recompensas y la facilitación de servicios ofrecidos en la plataforma, mejorando la participación y la utilidad general. Arquitectura en Capas: La arquitectura técnica de SPERO,$$s$ apoya la modularidad y escalabilidad, permitiendo la integración fluida de características y aplicaciones adicionales a medida que el proyecto evoluciona. Esta adaptabilidad es fundamental para mantener la relevancia en el cambiante paisaje cripto. Participación de la Comunidad: El proyecto enfatiza iniciativas impulsadas por la comunidad, empleando mecanismos que incentivan la colaboración y la retroalimentación. Al nutrir una comunidad sólida, SPERO,$$s$ puede abordar mejor las necesidades de los usuarios y adaptarse a las tendencias del mercado. Enfoque en la Inclusión: Al ofrecer tarifas de transacción bajas e interfaces amigables para el usuario, SPERO,$$s$ busca atraer a una base de usuarios diversa, incluyendo a individuos que anteriormente pueden no haber participado en el espacio cripto. Este compromiso con la inclusión se alinea con su misión general de empoderamiento a través de la accesibilidad. Cronología de SPERO,$$s$ Entender la historia de un proyecto proporciona información crucial sobre su trayectoria de desarrollo y hitos. A continuación se presenta una cronología sugerida que mapea eventos significativos en la evolución de SPERO,$$s$: Fase de Conceptualización e Ideación: Las ideas iniciales que forman la base de SPERO,$$s$ fueron concebidas, alineándose estrechamente con los principios de descentralización y enfoque comunitario dentro de la industria blockchain. Lanzamiento del Whitepaper del Proyecto: Tras la fase conceptual, se lanzó un whitepaper completo que detalla la visión, los objetivos y la infraestructura tecnológica de SPERO,$$s$ para generar interés y retroalimentación de la comunidad. Construcción de Comunidad y Primeras Interacciones: Se realizaron esfuerzos de divulgación activa para construir una comunidad de primeros adoptantes y posibles inversores, facilitando discusiones en torno a los objetivos del proyecto y obteniendo apoyo. Evento de Generación de Tokens: SPERO,$$s$ llevó a cabo un evento de generación de tokens (TGE) para distribuir sus tokens nativos a los primeros seguidores y establecer liquidez inicial dentro del ecosistema. Lanzamiento de la dApp Inicial: La primera aplicación descentralizada (dApp) asociada con SPERO,$$s$ se puso en marcha, permitiendo a los usuarios interactuar con las funcionalidades centrales de la plataforma. Desarrollo Continuo y Alianzas: Actualizaciones y mejoras continuas a las ofertas del proyecto, incluyendo alianzas estratégicas con otros actores en el espacio blockchain, han moldeado a SPERO,$$s$ en un jugador competitivo y en evolución en el mercado cripto. Conclusión SPERO,$$s$ se erige como un testimonio del potencial de web3 y las criptomonedas para revolucionar los sistemas financieros y empoderar a los individuos. Con un compromiso con la gobernanza descentralizada, la participación comunitaria y funcionalidades diseñadas de manera innovadora, allana el camino hacia un paisaje financiero más inclusivo. Como con cualquier inversión en el espacio cripto que evoluciona rápidamente, se anima a los posibles inversores y usuarios a investigar a fondo y participar de manera reflexiva con los desarrollos en curso dentro de SPERO,$$s$. El proyecto muestra el espíritu innovador de la industria cripto, invitando a una mayor exploración de sus innumerables posibilidades. Mientras el viaje de SPERO,$$s$ aún se desarrolla, sus principios fundamentales pueden, de hecho, influir en el futuro de cómo interactuamos con la tecnología, las finanzas y entre nosotros en ecosistemas digitales interconectados.

72 Vistas totalesPublicado en 2024.12.17Actualizado en 2024.12.17

Qué es $S$

Qué es AGENT S

Agent S: El Futuro de la Interacción Autónoma en Web3 Introducción En el paisaje en constante evolución de Web3 y las criptomonedas, las innovaciones están redefiniendo constantemente cómo los individuos interactúan con las plataformas digitales. Uno de estos proyectos pioneros, Agent S, promete revolucionar la interacción humano-computadora a través de su marco agente abierto. Al allanar el camino para interacciones autónomas, Agent S busca simplificar tareas complejas, ofreciendo aplicaciones transformadoras en inteligencia artificial (IA). Esta exploración detallada profundizará en las complejidades del proyecto, sus características únicas y las implicaciones para el dominio de las criptomonedas. ¿Qué es Agent S? Agent S se presenta como un marco agente abierto innovador, diseñado específicamente para abordar tres desafíos fundamentales en la automatización de tareas informáticas: Adquisición de Conocimiento Específico del Dominio: El marco aprende inteligentemente de diversas fuentes de conocimiento externas y experiencias internas. Este enfoque dual le permite construir un rico repositorio de conocimiento específico del dominio, mejorando su rendimiento en la ejecución de tareas. Planificación a Largo Plazo de Tareas: Agent S emplea planificación jerárquica aumentada por la experiencia, un enfoque estratégico que facilita la descomposición y ejecución eficiente de tareas complejas. Esta característica mejora significativamente su capacidad para gestionar múltiples subtareas de manera eficiente y efectiva. Manejo de Interfaces Dinámicas y No Uniformes: El proyecto introduce la Interfaz Agente-Computadora (ACI), una solución innovadora que mejora la interacción entre agentes y usuarios. Utilizando Modelos de Lenguaje Multimodal de Gran Escala (MLLMs), Agent S puede navegar y manipular diversas interfaces gráficas de usuario sin problemas. A través de estas características pioneras, Agent S proporciona un marco robusto que aborda las complejidades involucradas en la automatización de la interacción humana con las máquinas, preparando el terreno para una multitud de aplicaciones en IA y más allá. ¿Quién es el Creador de Agent S? Si bien el concepto de Agent S es fundamentalmente innovador, la información específica sobre su creador sigue siendo elusiva. El creador es actualmente desconocido, lo que resalta ya sea la etapa incipiente del proyecto o la elección estratégica de mantener a los miembros fundadores en el anonimato. Independientemente de la anonimidad, el enfoque sigue siendo en las capacidades y el potencial del marco. ¿Quiénes son los Inversores de Agent S? Dado que Agent S es relativamente nuevo en el ecosistema criptográfico, la información detallada sobre sus inversores y patrocinadores financieros no está documentada explícitamente. La falta de información disponible públicamente sobre las bases de inversión u organizaciones que apoyan el proyecto plantea preguntas sobre su estructura de financiamiento y hoja de ruta de desarrollo. Comprender el respaldo es crucial para evaluar la sostenibilidad del proyecto y su posible impacto en el mercado. ¿Cómo Funciona Agent S? En el núcleo de Agent S se encuentra una tecnología de vanguardia que le permite funcionar de manera efectiva en diversos entornos. Su modelo operativo se basa en varias características clave: Interacción Humano-Computadora Similar a la Humana: El marco ofrece planificación avanzada de IA, esforzándose por hacer que las interacciones con las computadoras sean más intuitivas. Al imitar el comportamiento humano en la ejecución de tareas, promete elevar las experiencias de los usuarios. Memoria Narrativa: Empleada para aprovechar experiencias de alto nivel, Agent S utiliza memoria narrativa para hacer un seguimiento de las historias de tareas, mejorando así sus procesos de toma de decisiones. Memoria Episódica: Esta característica proporciona a los usuarios una guía paso a paso, permitiendo que el marco ofrezca apoyo contextual a medida que se desarrollan las tareas. Soporte para OpenACI: Con la capacidad de ejecutarse localmente, Agent S permite a los usuarios mantener el control sobre sus interacciones y flujos de trabajo, alineándose con la ética descentralizada de Web3. Fácil Integración con APIs Externas: Su versatilidad y compatibilidad con varias plataformas de IA aseguran que Agent S pueda encajar sin problemas en ecosistemas tecnológicos existentes, convirtiéndolo en una opción atractiva para desarrolladores y organizaciones. Estas funcionalidades contribuyen colectivamente a la posición única de Agent S dentro del espacio cripto, ya que automatiza tareas complejas y de múltiples pasos con una intervención humana mínima. A medida que el proyecto evoluciona, sus posibles aplicaciones en Web3 podrían redefinir cómo se desarrollan las interacciones digitales. Cronología de Agent S El desarrollo y los hitos de Agent S pueden encapsularse en una cronología que resalta sus eventos significativos: 27 de septiembre de 2024: El concepto de Agent S fue lanzado en un documento de investigación integral titulado “Un Marco Agente Abierto que Usa Computadoras Como un Humano”, mostrando las bases del proyecto. 10 de octubre de 2024: El documento de investigación fue puesto a disposición del público en arXiv, ofreciendo una exploración profunda del marco y su evaluación de rendimiento basada en el benchmark OSWorld. 12 de octubre de 2024: Se lanzó una presentación en video, proporcionando una visión visual de las capacidades y características de Agent S, involucrando aún más a posibles usuarios e inversores. Estos marcadores en la cronología no solo ilustran el progreso de Agent S, sino que también indican su compromiso con la transparencia y la participación comunitaria. Puntos Clave Sobre Agent S A medida que el marco Agent S continúa evolucionando, varios atributos clave destacan, subrayando su naturaleza innovadora y potencial: Marco Innovador: Diseñado para proporcionar un uso intuitivo de las computadoras similar a la interacción humana, Agent S aporta un enfoque novedoso a la automatización de tareas. Interacción Autónoma: La capacidad de interactuar de manera autónoma con las computadoras a través de GUI significa un salto hacia soluciones informáticas más inteligentes y eficientes. Automatización de Tareas Complejas: Con su metodología robusta, puede automatizar tareas complejas y de múltiples pasos, haciendo que los procesos sean más rápidos y menos propensos a errores. Mejora Continua: Los mecanismos de aprendizaje permiten a Agent S mejorar a partir de experiencias pasadas, mejorando continuamente su rendimiento y eficacia. Versatilidad: Su adaptabilidad en diferentes entornos operativos como OSWorld y WindowsAgentArena asegura que pueda servir a una amplia gama de aplicaciones. A medida que Agent S se posiciona en el paisaje de Web3 y criptomonedas, su potencial para mejorar las capacidades de interacción y automatizar procesos significa un avance significativo en las tecnologías de IA. A través de su marco innovador, Agent S ejemplifica el futuro de las interacciones digitales, prometiendo una experiencia más fluida y eficiente para los usuarios en diversas industrias. Conclusión Agent S representa un audaz avance en la unión de la IA y Web3, con la capacidad de redefinir cómo interactuamos con la tecnología. Aunque aún se encuentra en sus primeras etapas, las posibilidades para su aplicación son vastas y atractivas. A través de su marco integral que aborda desafíos críticos, Agent S busca llevar las interacciones autónomas al primer plano de la experiencia digital. A medida que nos adentramos más en los reinos de las criptomonedas y la descentralización, proyectos como Agent S sin duda desempeñarán un papel crucial en la configuración del futuro de la tecnología y la colaboración humano-computadora.

349 Vistas totalesPublicado en 2025.01.14Actualizado en 2025.01.14

Qué es AGENT S

Cómo comprar S

¡Bienvenido a HTX.com! Hemos hecho que comprar Sonic (S) sea simple y conveniente. Sigue nuestra guía paso a paso para iniciar tu viaje de criptos.Paso 1: crea tu cuenta HTXUtiliza tu correo electrónico o número de teléfono para registrarte y obtener una cuenta gratuita en HTX. Experimenta un proceso de registro sin complicaciones y desbloquea todas las funciones.Obtener mi cuentaPaso 2: ve a Comprar cripto y elige tu método de pagoTarjeta de crédito/débito: usa tu Visa o Mastercard para comprar Sonic (S) al instante.Saldo: utiliza fondos del saldo de tu cuenta HTX para tradear sin problemas.Terceros: hemos agregado métodos de pago populares como Google Pay y Apple Pay para mejorar la comodidad.P2P: tradear directamente con otros usuarios en HTX.Over-the-Counter (OTC): ofrecemos servicios personalizados y tipos de cambio competitivos para los traders.Paso 3: guarda tu Sonic (S)Después de comprar tu Sonic (S), guárdalo en tu cuenta HTX. Alternativamente, puedes enviarlo a otro lugar mediante transferencia blockchain o utilizarlo para tradear otras criptomonedas.Paso 4: tradear Sonic (S)Tradear fácilmente con Sonic (S) en HTX's mercado spot. Simplemente accede a tu cuenta, selecciona tu par de trading, ejecuta tus trades y monitorea en tiempo real. Ofrecemos una experiencia fácil de usar tanto para principiantes como para traders experimentados.

716 Vistas totalesPublicado en 2025.01.15Actualizado en 2025.03.21

Cómo comprar S

Discusiones

Bienvenido a la comunidad de HTX. Aquí puedes mantenerte informado sobre los últimos desarrollos de la plataforma y acceder a análisis profesionales del mercado. A continuación se presentan las opiniones de los usuarios sobre el precio de S (S).

活动图片