Chinese Large Models: This Time, the Script Is Different

marsbitPublicado a 2026-04-07Actualizado a 2026-04-07

Resumen

By early 2026, Chinese large language models (LLMs) have gained significant global traction, representing six of the top ten most-used on the AI model aggregation platform OpenRouter. This shift, led by models like Xiaomi's MiMo-V2-Pro, occurred after Chinese models' weekly token usage surpassed that of U.S. models in February 2026. A key driver is the substantial price gap: Chinese models are often 10–20 times cheaper for input and up to 60 times cheaper for output tokens than leading U.S. models like OpenAI’s GPT-5.4 and Anthropic’s Claude Opus. This cost advantage became critical with the rise of agentic applications like OpenClaw, which automate complex tasks (e.g., programming, testing) and consume tokens at a much higher volume than traditional chat interfaces. While U.S. models still lead in complex reasoning benchmarks, Chinese models have nearly closed the gap in programming tasks—evidenced by near-parity scores on the SWE-Bench coding evaluation. This enabled cost-conscious developers, especially in AI startups using open-source stacks, to adopt a "layered" approach: using Chinese models for routine tasks and reserving premium U.S. models for harder problems. Rising demand led Chinese firms like Zhipu and Tencent to increase API prices in early 2026, yet usage continued growing sharply. Analysts note that China’s cost edge stems from large-scale, efficient compute infrastructure and widespread adoption of MoE (Mixture of Experts) architecture. Unlike the low-marg...

By the end of 2025, the annual usage report released by OpenRouter, the world's largest AI model aggregation platform, showed that 47% of its users were from the United States, while Chinese developers accounted for 6%. Additionally, English comprised 83% of the platform's content calls, with Chinese making up less than 5%.

However, as of the week of April 3, 2026, six of the top ten models by call volume on the platform were from China. Ranked from highest to lowest call volume, they were: Xiaomi MiMo-V2-Pro, StepFun Step 3.5 Flash, MiniMax M2.7, DeepSeek V3.2, Zhipu GLM 5 Turbo, and MiniMax M2.5. Among them, Xiaomi's MiMo-V2-Pro topped the entire platform with 4.82 trillion tokens.

In fact, since the week of February 9 to 15, 2026, when the call volume of Chinese models first surpassed that of the U.S., the lead of Chinese models has been maintained for nearly two months.

The OpenRouter platform aggregates over 400 AI models, covering more than 60 suppliers. Its call volume data is regarded as one of the windows to observe the model preference of global developers. Developers can switch between different models at any time using the same API Key (a key used for authentication and service calls).

Chris Clark, co-founder and COO of OpenRouter, publicly stated in February 2026 that Chinese open-source models account for a disproportionately high share in the Agent workflows run by U.S. enterprises. Meanwhile, discussions in the developer community about task allocation between models and cost optimization are increasing.

Some views compare this phenomenon to China's manufacturing industry 30 years ago: at that time, China leveraged cost advantages to enter the assembly segment of the global electronics industry chain, giving rise to contract manufacturers like Foxconn and Luxshare Precision; today, Chinese large models are also using price advantages to enter the execution segment of the global AI industry chain. Some also view domestic large models as the "Foxconn of the AI era."

What role do domestic large models play in the AI industry chain? How high is the actual value of this role?

Price Advantage

A review by Economic Observer reporters of the official API pricing of various manufacturers as of the end of March 2026 revealed a huge price gap between mainstream large models from China and the U.S.

Taking input prices as an example, among Chinese models, DeepSeek V3.2 is $0.28 per million tokens, MiniMax M2.5 is $0.3, and Moonshot AI's Kimi K2.5 is $0.42. Among U.S. models, Anthropic's Claude Opus 4.6 is $5, and OpenAI's GPT-5.4 is $2.50. The input price of mainstream U.S. models is about 10 to 20 times that of mainstream Chinese models.

The gap in output prices is even more pronounced. For Chinese models, DeepSeek V3.2 is $0.42 per million tokens, MiniMax M2.5 is $1.1, and Moonshot AI's Kimi K2.5 is $2.2. For U.S. models, OpenAI's GPT-5.4 is $15, and Claude Opus 4.6 is $25. The output price gap between mainstream Chinese and U.S. models ranges from about 7 times to 60 times.

This price difference has always existed but did not trigger large-scale user migration previously for a simple reason: most people's primary use case for AI was chatting, where token consumption was low, and the price difference had minimal impact.

However, in early 2026, the emergence of a "lobster" changed all that. The open-source tool OpenClaw (referred to as "Lobster" by the developer community) quickly gained popularity around February 2026, soon topping OpenRouter's application rankings and consuming over 600 billion tokens in a single week. "Lobster" is an agent application. Unlike the past "question-and-answer" chat mode, it enables AI to autonomously perform tasks like programming, testing, and file management on a computer without step-by-step human intervention.

In this workflow, token consumption is on a completely different scale compared to chat scenarios.

For example, a programming task might require dozens of cycles of "write code -> run -> error -> modify -> run again," each cycle being a complete model call. To allow the agent to remember previous operations, each call also requires the conversation history.

Some developers have stated on social platforms that an active OpenClaw session context can easily expand to over 230,000 tokens. If using the Claude API throughout, the cost could range from $800 to $1500 per month. Some users reported that a misconfigured automated task burned through $200 in a single day.

Agent applications like OpenClaw have driven up the platform's overall token consumption. For instance, in the week of March 3 to 9, 2025, the total weekly call volume of the top ten models on OpenRouter was 1.24 trillion tokens. By the week of February 16 to 22, 2026, the weekly call volume of just the top ten models exceeded 8.7 trillion tokens, an increase of nearly 7 times. The proportion of programming tasks in the platform's token consumption also rose from 11% in early 2025 to over 50% by the end of 2025.

When the token consumption per task increased from thousands to hundreds of thousands, the price gap between Chinese and U.S. models transformed from a negligible cost into a significant difference of hundreds or even thousands of dollars per month.

Around February 19, 2026, U.S. large model company Anthropic updated its terms of service, prohibiting users from connecting Claude subscription account credentials to third-party tools like OpenClaw and requiring pay-as-you-go billing via API. Google subsequently imposed similar restrictions. For agent applications that require frequent API calls daily, the price factor in model selection became an unavoidable issue, pushing developers onto the pay-as-you-go track.

In the core programming scenarios for agents, the capabilities of Chinese and U.S. models are already quite close.

SWE-Bench Verified is a public evaluation of programming capabilities maintained by a research team at Princeton University. The method involves having AI models fix real code issues on GitHub (the world's largest open-source code hosting platform). According to data on the public leaderboard of this evaluation, the Chinese model MiniMax M2.5, released on February 13, 2026, scored 80.2%, while the U.S. model Claude Opus 4.6, released on February 5, scored 80.8%, a difference of only 0.6 percentage points.

With comparable capabilities but vastly different prices, developers' choices were quickly reflected in the data.

In the week of February 9 to 15, 2026, Chinese model token call volume reached 4.12 trillion, surpassing the U.S. models' 2.94 trillion for the first time. The following week, Chinese model call volume rose to 5.16 trillion, a 127% increase in three weeks. During the same period, U.S. model call volume dropped to 2.7 trillion.

Why can Chinese large models be so much cheaper than U.S. models?

Pan Helin, a member of the Expert Committee on Information and Communication Economy of the Ministry of Industry and Information Technology, told the Economic Observer that there are two main reasons: first, the scale of China's computing power infrastructure is large with high reuse rates, leading to lower quotes; second, there is a large amount of self-built computing power within Chinese computing clusters, acquired at lower costs than overseas.

Additionally, technical routes also affect costs. Some industry insiders told reporters that mainstream Chinese large models generally adopt the MoE architecture, also known as "Mixture of Experts." Simply put, although a MoE model has a large total parameter count, only a small portion of these parameters are activated to handle a task during each operation, rather than all parameters, which significantly reduces the computational load required for each inference.

Different Paths

Martin Casado, a partner at Silicon Valley venture capital firm a16z, stated at the end of 2025 that among AI startups using open-source technology stacks, about 80% use Chinese models. He later clarified on social media that this did not mean 80% of U.S. AI startups use Chinese models, but rather that among those choosing the open-source technology route (accounting for about 20% to 30% of all U.S. AI startups), about 80% use Chinese models.

Reporters noted that multiple open-source tools have appeared on GitHub to help developers optimize costs across different models. The general idea is to grade tasks by difficulty, assigning simple tasks to free or low-cost Chinese models and reserving complex tasks for expensive U.S. models.

One project named ClawRouter provided comparative data in its documentation, showing that after adopting this mixed approach, the average cost dropped from $25 per million tokens to about $2. Anthropic's product ClaudeCode also uses a similar hierarchical design in its official documentation, defaulting to the cheapest model for routine tasks.

The premise for this model to work is that Chinese models are sufficiently capable in execution tasks. In programming, the SWE-Bench data mentioned earlier illustrates this point. But beyond programming, how large is the overall capability gap between Chinese and U.S. large models?

LMSYS Chatbot Arena is one of the globally most recognized AI model evaluation platforms. Its method involves having real users trial two models simultaneously without knowing their names, then voting for the better one, equivalent to a blind taste test for AIs.

In its comprehensive rankings as of March 25, 2026, the top five positions were all held by U.S. company models. The highest-ranked Chinese model, DeepSeek V3.2 Speciale, was sixth. The gap is more pronounced in the Hard Prompts category (specifically designed to test a model's ability to handle complex reasoning and multi-step logic tasks), where the first tier is still primarily composed of U.S. models.

Close programming capabilities but a remaining gap in complex reasoning—this is the manifestation of the differentiated capabilities between Chinese and U.S. large models today and the foundation for the viability of the "layered calling" approach.

However, unlike being locked into low-profit-margin contract manufacturing 30 years ago, Chinese large model vendors have not continuously driven prices down.

In fact, the Chinese large model industry experienced a price war starting in 2024: In May 2024, ByteDance's Volcano Engine Doubao model triggered a "price war" with a price of 0.0008 yuan per thousand tokens, followed by Alibaba Cloud and Baidu Intelligent Cloud. In the nearly year that followed, the industry saw token prices drop by over 90%, with inference computing毛利率 (gross margin) for some vendors turning negative at times.

The strategy for vendors at the time was to accept losses to gain scale and cultivate user calling habits. However, after OpenClaw's popularity surge in February 2026, token consumption growth far exceeded expectations, and computing power supply tightened.

Zhipu was the first to react. It raised API pricing when releasing the new model GLM-5 on February 12, 2026, and raised prices again when releasing GLM-5-Turbo on March 16, with a cumulative increase of 83% over the two rounds.

Zhipu CEO Zhang Peng stated at the 2025 annual performance briefing that API call pricing increased by 83% in Q1 2026, while call volume grew by 400%. According to the annual report, Zhipu's full-year revenue for 2025 was 724.3 million yuan, a year-on-year increase of 132%, and the annual recurring revenue of its MaaS (Model-as-a-Service) platform was approximately 1.7 billion yuan, a 60-fold increase in 12 months.

Zhipu wasn't the only one choosing to raise prices. On March 13, 2026, Tencent Cloud adjusted pricing for its Hunyuan series large models, with some models seeing increases of over 460%. On March 18, Alibaba Cloud and Baidu Intelligent Cloud issued price adjustment announcements on the same day, with increases for AI computing power-related products ranging from 5% to 34%, effective April 18.

Li Bin, Senior Vice President of Sugon, told the Economic Observer in an interview that the evaluation metrics for computing power systems are changing. The past standard for measuring a system was its amount of computing power, but now it's about how economically it can produce tokens.

The shift from collective price cuts to collective price hikes took less than two years.

In March 2026, Liu Liehong, head of the National Data Bureau, announced a set of figures at the China Development Forum: China's daily token call volume has exceeded 140 trillion, an increase of over 1000 times compared to two years ago.

At the GTC conference the same month, NVIDIA founder Jensen Huang stated that tokens would be the most core commodity in the future digital world.

In Pan Helin's view, the competitiveness of Chinese large models is strong; they are not catching up but leading, especially on the AI application end. However, he also stated that China still has room for improvement in original innovation. The core architectures in the current AI system, from artificial neural networks to attention mechanisms, were first proposed overseas and then iterated upon domestically. The next step for Chinese large models is to continue efforts on the application end while also pursuing original innovation in basic algorithms.

The consumer electronics contract manufacturing industry 30 years ago had a characteristic: the profit margin of the assembly segment was firmly suppressed by upstream brand owners. Many leading contract manufacturers still have gross margins not exceeding 10% today. Cost advantages brought orders but did not bring pricing power.

Currently, the situation of Chinese large models seems somewhat similar to the consumer electronics contract manufacturing industry back then, but seems quite different regarding pricing power. For example, after Zhipu raised prices by 83%, call volume grew by 400%. Alibaba Cloud, Baidu Intelligent Cloud, and Tencent Cloud collectively raised prices for AI computing power and model services in March 2026; demand did not shrink, and call volume continued to grow.

On the SWE-Bench programming evaluation, the gap between top Chinese models and top U.S. models has narrowed to less than 1 percentage point. The gap in complex reasoning remains, but it is also narrowing rapidly.

This time, the development path for Chinese large model manufacturers seems to be different.

This article is from the WeChat public account "Economic Observer", author: Zheng Chenye

Preguntas relacionadas

QWhat percentage of AI model calls on OpenRouter came from Chinese models during the week of April 3, 2026?

ASix out of the top ten most called models on OpenRouter during the week of April 3, 2026, were from China, with Xiaomi's MiMo-V2-Pro ranking first with 4.82 trillion tokens.

QWhat is the main reason cited for the significant price difference between Chinese and American AI models?

AThe main reasons are China's large-scale, highly utilized computing infrastructure with lower pricing, the prevalence of self-built computing clusters with lower acquisition costs, and the widespread adoption of the MoE (Mixture of Experts) architecture which reduces computational requirements per task.

QWhat specific event in early 2026 triggered a massive shift in developer preference towards Chinese AI models?

AThe rise of the intelligent agent application 'OpenClaw' (also known as 'Lobster') in February 2026, which drastically increased token consumption for automated tasks like programming, making the large price gap between Chinese and American models a significant financial factor for developers.

QHow did Chinese AI model companies change their pricing strategy in response to surging demand in early 2026?

AAfter a previous price war, Chinese companies collectively shifted from cutting prices to raising them. For example, Zhipu raised its API prices by 83% over two adjustments, and other major providers like Alibaba Cloud, Baidu Cloud, and Tencent Cloud also announced significant price increases for their AI models and computing power.

QAccording to the SWE-Bench programming evaluation, how did the capabilities of top Chinese models compare to their American counterparts?

AAs of the data cited from February 2026, the gap was very small. The Chinese model MiniMax M2.5 scored 80.2% on the SWE-Bench benchmark, while the American model Claude Opus 4.6 scored 80.8%, a difference of only 0.6 percentage points.

Lecturas Relacionadas

Trading

Spot
Futuros

Artículos destacados

Qué es $S$

Entendiendo SPERO: Una Visión General Completa Introducción a SPERO A medida que el panorama de la innovación continúa evolucionando, la aparición de tecnologías web3 y proyectos de criptomonedas juega un papel fundamental en la configuración del futuro digital. Un proyecto que ha atraído la atención en este campo dinámico es SPERO, denotado como SPERO,$$s$. Este artículo tiene como objetivo reunir y presentar información detallada sobre SPERO, para ayudar a entusiastas e inversores a comprender sus fundamentos, objetivos e innovaciones dentro de los dominios web3 y cripto. ¿Qué es SPERO,$$s$? SPERO,$$s$ es un proyecto único dentro del espacio cripto que busca aprovechar los principios de descentralización y tecnología blockchain para crear un ecosistema que promueva la participación, la utilidad y la inclusión financiera. El proyecto está diseñado para facilitar interacciones de igual a igual de nuevas maneras, proporcionando a los usuarios soluciones y servicios financieros innovadores. En su esencia, SPERO,$$s$ tiene como objetivo empoderar a los individuos al proporcionar herramientas y plataformas que mejoren la experiencia del usuario en el espacio de las criptomonedas. Esto incluye habilitar métodos de transacción más flexibles, fomentar iniciativas impulsadas por la comunidad y crear caminos para oportunidades financieras a través de aplicaciones descentralizadas (dApps). La visión subyacente de SPERO,$$s$ gira en torno a la inclusividad, buscando cerrar brechas dentro de las finanzas tradicionales mientras aprovecha los beneficios de la tecnología blockchain. ¿Quién es el Creador de SPERO,$$s$? La identidad del creador de SPERO,$$s$ sigue siendo algo oscura, ya que hay recursos públicos limitados que proporcionan información de fondo detallada sobre su(s) fundador(es). Esta falta de transparencia puede derivarse del compromiso del proyecto con la descentralización, una ética que muchos proyectos web3 comparten, priorizando las contribuciones colectivas sobre el reconocimiento individual. Al centrar las discusiones en torno a la comunidad y sus objetivos colectivos, SPERO,$$s$ encarna la esencia del empoderamiento sin señalar a individuos específicos. Como tal, comprender la ética y la misión de SPERO sigue siendo más importante que identificar a un creador singular. ¿Quiénes son los Inversores de SPERO,$$s$? SPERO,$$s$ cuenta con el apoyo de una diversa gama de inversores que van desde capitalistas de riesgo hasta inversores ángeles dedicados a fomentar la innovación en el sector cripto. El enfoque de estos inversores generalmente se alinea con la misión de SPERO, priorizando proyectos que prometen avances tecnológicos sociales, inclusión financiera y gobernanza descentralizada. Estas fundaciones de inversores suelen estar interesadas en proyectos que no solo ofrecen productos innovadores, sino que también contribuyen positivamente a la comunidad blockchain y sus ecosistemas. El respaldo de estos inversores refuerza a SPERO,$$s$ como un contendiente notable en el dominio de proyectos cripto que evoluciona rápidamente. ¿Cómo Funciona SPERO,$$s$? SPERO,$$s$ emplea un marco multifacético que lo distingue de los proyectos de criptomonedas convencionales. Aquí hay algunas de las características clave que subrayan su singularidad e innovación: Gobernanza Descentralizada: SPERO,$$s$ integra modelos de gobernanza descentralizada, empoderando a los usuarios para participar activamente en los procesos de toma de decisiones sobre el futuro del proyecto. Este enfoque fomenta un sentido de propiedad y responsabilidad entre los miembros de la comunidad. Utilidad del Token: SPERO,$$s$ utiliza su propio token de criptomoneda, diseñado para servir diversas funciones dentro del ecosistema. Estos tokens permiten transacciones, recompensas y la facilitación de servicios ofrecidos en la plataforma, mejorando la participación y la utilidad general. Arquitectura en Capas: La arquitectura técnica de SPERO,$$s$ apoya la modularidad y escalabilidad, permitiendo la integración fluida de características y aplicaciones adicionales a medida que el proyecto evoluciona. Esta adaptabilidad es fundamental para mantener la relevancia en el cambiante paisaje cripto. Participación de la Comunidad: El proyecto enfatiza iniciativas impulsadas por la comunidad, empleando mecanismos que incentivan la colaboración y la retroalimentación. Al nutrir una comunidad sólida, SPERO,$$s$ puede abordar mejor las necesidades de los usuarios y adaptarse a las tendencias del mercado. Enfoque en la Inclusión: Al ofrecer tarifas de transacción bajas e interfaces amigables para el usuario, SPERO,$$s$ busca atraer a una base de usuarios diversa, incluyendo a individuos que anteriormente pueden no haber participado en el espacio cripto. Este compromiso con la inclusión se alinea con su misión general de empoderamiento a través de la accesibilidad. Cronología de SPERO,$$s$ Entender la historia de un proyecto proporciona información crucial sobre su trayectoria de desarrollo y hitos. A continuación se presenta una cronología sugerida que mapea eventos significativos en la evolución de SPERO,$$s$: Fase de Conceptualización e Ideación: Las ideas iniciales que forman la base de SPERO,$$s$ fueron concebidas, alineándose estrechamente con los principios de descentralización y enfoque comunitario dentro de la industria blockchain. Lanzamiento del Whitepaper del Proyecto: Tras la fase conceptual, se lanzó un whitepaper completo que detalla la visión, los objetivos y la infraestructura tecnológica de SPERO,$$s$ para generar interés y retroalimentación de la comunidad. Construcción de Comunidad y Primeras Interacciones: Se realizaron esfuerzos de divulgación activa para construir una comunidad de primeros adoptantes y posibles inversores, facilitando discusiones en torno a los objetivos del proyecto y obteniendo apoyo. Evento de Generación de Tokens: SPERO,$$s$ llevó a cabo un evento de generación de tokens (TGE) para distribuir sus tokens nativos a los primeros seguidores y establecer liquidez inicial dentro del ecosistema. Lanzamiento de la dApp Inicial: La primera aplicación descentralizada (dApp) asociada con SPERO,$$s$ se puso en marcha, permitiendo a los usuarios interactuar con las funcionalidades centrales de la plataforma. Desarrollo Continuo y Alianzas: Actualizaciones y mejoras continuas a las ofertas del proyecto, incluyendo alianzas estratégicas con otros actores en el espacio blockchain, han moldeado a SPERO,$$s$ en un jugador competitivo y en evolución en el mercado cripto. Conclusión SPERO,$$s$ se erige como un testimonio del potencial de web3 y las criptomonedas para revolucionar los sistemas financieros y empoderar a los individuos. Con un compromiso con la gobernanza descentralizada, la participación comunitaria y funcionalidades diseñadas de manera innovadora, allana el camino hacia un paisaje financiero más inclusivo. Como con cualquier inversión en el espacio cripto que evoluciona rápidamente, se anima a los posibles inversores y usuarios a investigar a fondo y participar de manera reflexiva con los desarrollos en curso dentro de SPERO,$$s$. El proyecto muestra el espíritu innovador de la industria cripto, invitando a una mayor exploración de sus innumerables posibilidades. Mientras el viaje de SPERO,$$s$ aún se desarrolla, sus principios fundamentales pueden, de hecho, influir en el futuro de cómo interactuamos con la tecnología, las finanzas y entre nosotros en ecosistemas digitales interconectados.

72 Vistas totalesPublicado en 2024.12.17Actualizado en 2024.12.17

Qué es $S$

Qué es AGENT S

Agent S: El Futuro de la Interacción Autónoma en Web3 Introducción En el paisaje en constante evolución de Web3 y las criptomonedas, las innovaciones están redefiniendo constantemente cómo los individuos interactúan con las plataformas digitales. Uno de estos proyectos pioneros, Agent S, promete revolucionar la interacción humano-computadora a través de su marco agente abierto. Al allanar el camino para interacciones autónomas, Agent S busca simplificar tareas complejas, ofreciendo aplicaciones transformadoras en inteligencia artificial (IA). Esta exploración detallada profundizará en las complejidades del proyecto, sus características únicas y las implicaciones para el dominio de las criptomonedas. ¿Qué es Agent S? Agent S se presenta como un marco agente abierto innovador, diseñado específicamente para abordar tres desafíos fundamentales en la automatización de tareas informáticas: Adquisición de Conocimiento Específico del Dominio: El marco aprende inteligentemente de diversas fuentes de conocimiento externas y experiencias internas. Este enfoque dual le permite construir un rico repositorio de conocimiento específico del dominio, mejorando su rendimiento en la ejecución de tareas. Planificación a Largo Plazo de Tareas: Agent S emplea planificación jerárquica aumentada por la experiencia, un enfoque estratégico que facilita la descomposición y ejecución eficiente de tareas complejas. Esta característica mejora significativamente su capacidad para gestionar múltiples subtareas de manera eficiente y efectiva. Manejo de Interfaces Dinámicas y No Uniformes: El proyecto introduce la Interfaz Agente-Computadora (ACI), una solución innovadora que mejora la interacción entre agentes y usuarios. Utilizando Modelos de Lenguaje Multimodal de Gran Escala (MLLMs), Agent S puede navegar y manipular diversas interfaces gráficas de usuario sin problemas. A través de estas características pioneras, Agent S proporciona un marco robusto que aborda las complejidades involucradas en la automatización de la interacción humana con las máquinas, preparando el terreno para una multitud de aplicaciones en IA y más allá. ¿Quién es el Creador de Agent S? Si bien el concepto de Agent S es fundamentalmente innovador, la información específica sobre su creador sigue siendo elusiva. El creador es actualmente desconocido, lo que resalta ya sea la etapa incipiente del proyecto o la elección estratégica de mantener a los miembros fundadores en el anonimato. Independientemente de la anonimidad, el enfoque sigue siendo en las capacidades y el potencial del marco. ¿Quiénes son los Inversores de Agent S? Dado que Agent S es relativamente nuevo en el ecosistema criptográfico, la información detallada sobre sus inversores y patrocinadores financieros no está documentada explícitamente. La falta de información disponible públicamente sobre las bases de inversión u organizaciones que apoyan el proyecto plantea preguntas sobre su estructura de financiamiento y hoja de ruta de desarrollo. Comprender el respaldo es crucial para evaluar la sostenibilidad del proyecto y su posible impacto en el mercado. ¿Cómo Funciona Agent S? En el núcleo de Agent S se encuentra una tecnología de vanguardia que le permite funcionar de manera efectiva en diversos entornos. Su modelo operativo se basa en varias características clave: Interacción Humano-Computadora Similar a la Humana: El marco ofrece planificación avanzada de IA, esforzándose por hacer que las interacciones con las computadoras sean más intuitivas. Al imitar el comportamiento humano en la ejecución de tareas, promete elevar las experiencias de los usuarios. Memoria Narrativa: Empleada para aprovechar experiencias de alto nivel, Agent S utiliza memoria narrativa para hacer un seguimiento de las historias de tareas, mejorando así sus procesos de toma de decisiones. Memoria Episódica: Esta característica proporciona a los usuarios una guía paso a paso, permitiendo que el marco ofrezca apoyo contextual a medida que se desarrollan las tareas. Soporte para OpenACI: Con la capacidad de ejecutarse localmente, Agent S permite a los usuarios mantener el control sobre sus interacciones y flujos de trabajo, alineándose con la ética descentralizada de Web3. Fácil Integración con APIs Externas: Su versatilidad y compatibilidad con varias plataformas de IA aseguran que Agent S pueda encajar sin problemas en ecosistemas tecnológicos existentes, convirtiéndolo en una opción atractiva para desarrolladores y organizaciones. Estas funcionalidades contribuyen colectivamente a la posición única de Agent S dentro del espacio cripto, ya que automatiza tareas complejas y de múltiples pasos con una intervención humana mínima. A medida que el proyecto evoluciona, sus posibles aplicaciones en Web3 podrían redefinir cómo se desarrollan las interacciones digitales. Cronología de Agent S El desarrollo y los hitos de Agent S pueden encapsularse en una cronología que resalta sus eventos significativos: 27 de septiembre de 2024: El concepto de Agent S fue lanzado en un documento de investigación integral titulado “Un Marco Agente Abierto que Usa Computadoras Como un Humano”, mostrando las bases del proyecto. 10 de octubre de 2024: El documento de investigación fue puesto a disposición del público en arXiv, ofreciendo una exploración profunda del marco y su evaluación de rendimiento basada en el benchmark OSWorld. 12 de octubre de 2024: Se lanzó una presentación en video, proporcionando una visión visual de las capacidades y características de Agent S, involucrando aún más a posibles usuarios e inversores. Estos marcadores en la cronología no solo ilustran el progreso de Agent S, sino que también indican su compromiso con la transparencia y la participación comunitaria. Puntos Clave Sobre Agent S A medida que el marco Agent S continúa evolucionando, varios atributos clave destacan, subrayando su naturaleza innovadora y potencial: Marco Innovador: Diseñado para proporcionar un uso intuitivo de las computadoras similar a la interacción humana, Agent S aporta un enfoque novedoso a la automatización de tareas. Interacción Autónoma: La capacidad de interactuar de manera autónoma con las computadoras a través de GUI significa un salto hacia soluciones informáticas más inteligentes y eficientes. Automatización de Tareas Complejas: Con su metodología robusta, puede automatizar tareas complejas y de múltiples pasos, haciendo que los procesos sean más rápidos y menos propensos a errores. Mejora Continua: Los mecanismos de aprendizaje permiten a Agent S mejorar a partir de experiencias pasadas, mejorando continuamente su rendimiento y eficacia. Versatilidad: Su adaptabilidad en diferentes entornos operativos como OSWorld y WindowsAgentArena asegura que pueda servir a una amplia gama de aplicaciones. A medida que Agent S se posiciona en el paisaje de Web3 y criptomonedas, su potencial para mejorar las capacidades de interacción y automatizar procesos significa un avance significativo en las tecnologías de IA. A través de su marco innovador, Agent S ejemplifica el futuro de las interacciones digitales, prometiendo una experiencia más fluida y eficiente para los usuarios en diversas industrias. Conclusión Agent S representa un audaz avance en la unión de la IA y Web3, con la capacidad de redefinir cómo interactuamos con la tecnología. Aunque aún se encuentra en sus primeras etapas, las posibilidades para su aplicación son vastas y atractivas. A través de su marco integral que aborda desafíos críticos, Agent S busca llevar las interacciones autónomas al primer plano de la experiencia digital. A medida que nos adentramos más en los reinos de las criptomonedas y la descentralización, proyectos como Agent S sin duda desempeñarán un papel crucial en la configuración del futuro de la tecnología y la colaboración humano-computadora.

330 Vistas totalesPublicado en 2025.01.14Actualizado en 2025.01.14

Qué es AGENT S

Cómo comprar S

¡Bienvenido a HTX.com! Hemos hecho que comprar Sonic (S) sea simple y conveniente. Sigue nuestra guía paso a paso para iniciar tu viaje de criptos.Paso 1: crea tu cuenta HTXUtiliza tu correo electrónico o número de teléfono para registrarte y obtener una cuenta gratuita en HTX. Experimenta un proceso de registro sin complicaciones y desbloquea todas las funciones.Obtener mi cuentaPaso 2: ve a Comprar cripto y elige tu método de pagoTarjeta de crédito/débito: usa tu Visa o Mastercard para comprar Sonic (S) al instante.Saldo: utiliza fondos del saldo de tu cuenta HTX para tradear sin problemas.Terceros: hemos agregado métodos de pago populares como Google Pay y Apple Pay para mejorar la comodidad.P2P: tradear directamente con otros usuarios en HTX.Over-the-Counter (OTC): ofrecemos servicios personalizados y tipos de cambio competitivos para los traders.Paso 3: guarda tu Sonic (S)Después de comprar tu Sonic (S), guárdalo en tu cuenta HTX. Alternativamente, puedes enviarlo a otro lugar mediante transferencia blockchain o utilizarlo para tradear otras criptomonedas.Paso 4: tradear Sonic (S)Tradear fácilmente con Sonic (S) en HTX's mercado spot. Simplemente accede a tu cuenta, selecciona tu par de trading, ejecuta tus trades y monitorea en tiempo real. Ofrecemos una experiencia fácil de usar tanto para principiantes como para traders experimentados.

704 Vistas totalesPublicado en 2025.01.15Actualizado en 2025.03.21

Cómo comprar S

Discusiones

Bienvenido a la comunidad de HTX. Aquí puedes mantenerte informado sobre los últimos desarrollos de la plataforma y acceder a análisis profesionales del mercado. A continuación se presentan las opiniones de los usuarios sobre el precio de S (S).

活动图片