DeepSeek V4 fait sensation : La Silicon Valley « construit des murs », la Chine « construit des routes »

marsbitPublié le 2026-04-26Dernière mise à jour le 2026-04-26

Résumé

**DeepSeek V4 et l'approche collaborative chinoise face au modèle fermé de la Silicon Valley** Le 24 avril, DeepSeek a lancé son modèle V4, acclamé pour ses innovations majeures : une capacité de contexte étendue à un million de tokens avec une réduction de 90% de la consommation mémoire (KV Cache), et une compatibilité native avec les puces chinoises comme celles de Huawei. Contrairement à la concurrence agressive observée entre OpenAI, Google et Anthropic — marquée par des rivalités techniques et des guerres médiatiques — la Chine adopte une stratégie collaborative et open-source. Des entreprises comme DeepSeek et MoonShot AI (créateur de Kimi) partagent ouvertement leurs avancées, comme l’architecture MLA (Multi-head Latent Attention) ou l’optimiseur Muon, permettant une évolution synergique plutôt qu’une compétition destructive. Cette approche open-source réduit les coûts de formation (ex. : DeepSeek V3 formé pour moins de 600M$ contre 5Mds$ pour GPT-5) et stimule l’adoption. Alors que les géants américains se enferment dans des modèles fermés pour préserver leurs avantages, la Chine construit écosystème ouvert, optimisé pour les puces locales et orienté vers les agents IA. Malgré des revenus encore inférieurs à ceux des acteurs US, la croissance du trafic de tokens et la réduction des coûts laissent présager un avantage à long terme grâce à l’innovation collective et l’autonomie technologique.

Par | Alter

Le matin du 24 avril, DeepSeek V4, longtemps attendu, a finalement dévoilé son vrai visage.

Ce jour-là, DeepSeek-V4-Pro a immédiatement atteint la première place du classement des modèles open source de Hugging Face, et deux « innovations nucléaires » ont été largement saluées :

Premièrement, un contexte ultra-long d'un million de tokens, mais avec une consommation de KV cache seulement 10% de celle de V3.2, ce qu'un ingénieur d'Amazon a vivement salué comme une solution au problème de pénurie de HBM ;

Deuxièmement, l'adaptation aux puces chinoises, avec une collaboration étroite avec Huawei pendant le développement et une adaptation immédiate aux puces chinoises telles que Ascend et Cambricon.

Coïncidence, le modèle classé deuxième sur le leaderboard des modèles open source de Hugging Face est justement Kimi K2.6, publié et open source dans la nuit du 20 avril.

Si cela s'était passé de l'autre côté du Pacifique, la « collision » de deux modèles à billions de paramètres n'aurait pas manqué de donner lieu à des attaques mutuelles pour la valorisation et les parts de marché, mais en Chine, la scène a été totalement différente : pas de révélations mutuelles, pas de guerre des relations publiques sournoise, et même une « permutation » au niveau technique sous-jacent.

Derrière cette « situation inhabituelle » se cache une divergence dans les approches technologiques de l'IA entre la Chine et les États-Unis : La Silicon Valley est en train d'« ériger frénétiquement de hauts murs », tentant de préserver ses intérêts acquis par le closed-source ; les fabricants chinois de grands modèles ont quant à eux choisi de « démanteler les murs », évoluant vers une coévolution sur le terrain open source.

01 La Silicon Valley plongée dans le « Jeu des Trônes »

Contrairement à l'approche open source diversifiée des grands modèles chinois, les têtes d'affiche de l'IA de la Silicon Valley, représentées par OpenAI, Anthropic et Google Gemini, sont toutes des adeptes du closed-source.

Lorsque les innovations technologiques de pointe sont enfermées dans leurs propres data centers, face à la pression des coûts de calcul et aux attentes des marchés financiers, l'« esprit de la Silicon Valley », autrefois connu pour son ouverture et sa collaboration, s'efface progressivement, et les acteurs tombent inévitablement dans un « jeu de pouvoir » à somme nulle.

Au cours des deux dernières années, la « guerre froide » technologique s'est transformée en affrontements publics ouverts, le moyen le plus typique étant de se « voler la vedette » mutuellement : Lancer rapidement des mises à jour fracassantes de son propre produit au moment crucial où un concurrent publie un nouveau produit pour étouffer sa visibilité est devenu une opération courante dans la Silicon Valley.

Dès mai 2024, OpenAI et Google avaient simultanément publié de nouveaux produits d'IA, l'un disant que GPT-4o était leader mondial, l'autre que la famille Gemini couvrait tous les écosystèmes et chemins. Finalement, les PDG des deux entreprises n'ont pas pu s'empêcher de se moquer ouvertement l'un de l'autre sur les réseaux sociaux.

Pas seulement des « luttes » avec Google, la rivalité entre OpenAI et Anthropic est également devenue acharnée : le 16 avril, à peine plus de deux heures après qu'Anthropic ait publié son nouveau modèle Claude Opus 4.7, OpenAI a annoncé une mise à jour majeure de Codex, lançant le slogan « Codex for (almost) everything ». Il était évident pour tous que cette coïncidence de timing n'était pas un hasard, mais bien une « embuscade » soigneusement planifiée par OpenAI contre Anthropic.

Outre les « combats littéraires » sur la scène médiatique, les « combats physiques » consistant à se « dévoiler mutuellement » sont également devenus monnaie courante dans la Silicon Valley.

Anthropic a annoncé en grande pompe le 7 avril avoir atteint un chiffre d'affaires annualisé de 300 milliards de dollars, dépassant ainsi les 250 milliards de dollars d'OpenAI.

Une semaine plus tard, le directeur des revenus d'OpenAI a déclaré sans ambages dans une note interne adressée à tous les employés : le chiffre d'affaires annualisé de 300 milliards de dollars annoncé par Anthropic contenait des erreurs importantes, car il utilisait la « méthode brute », incluant dans son chiffre d'affaires total la part reversée aux fournisseurs de services cloud comme Amazon et Google, ce qui avait surestimé le revenu annualisé d'environ 80 milliards de dollars.

Cette pratique consistant à déstabiliser un concurrent dans une communication interne n'est pas courante dans le secteur technologique ; le but était simplement de dire aux investisseurs - le mythe de la croissance d'Anthropic est gonflé.

Et une fois que l'hostilité s'installe, elle influence chaque décision de manière insidieuse.

Après qu'Anthropic se soit « brouillé » avec le Pentagone pour avoir refusé de supprimer certaines clauses de sécurité spécifiques de son contrat, OpenAI a annoncé quelques heures plus tard avoir conclu un partenariat avec le département de la Défense américain.

Lors du « Super Bowl » de 2026, Anthropic a investi massivement dans une publicité dont le message était : « La publicité entre dans le domaine de l'IA, mais n'entrera pas dans Claude. » On peut dire que c'était un « coup direct » à OpenAI, qui commençait tout juste à tester les fonctionnalités publicitaires.......

Pourquoi d'anciens « frères de promo » en sont-ils arrivés à un point d'hostilité irréconciliable ?

La racine réside dans la logique inhérente au modèle commercial closed-source : la base de survie du closed-source est la construction de barrières, et la condition préalable à la construction de barrières est de bloquer la diffusion technologique, monopoliser la productivité la plus avancée. Ajoutez à cela l'incompatibilité des routes technologiques et l'opposition des récits produits, cela forme naturellement un équilibre de Nash : Celui qui « cesse le feu » en premier verra son récit de marque s'effondrer, s'enfonçant finalement plus profondément dans le marasme de la consommation interne.

02 La « coévolution » du camp open source

En reportant notre regard sur la Chine, le scénario est totalement différent.

Remontons à plus d'un an, l'émergence soudaine de DeepSeek-R1 a mis un coup de frein à la course effrénée des startups de grands modèles, les « six petits tigres » des grands modèles en finale étant les premiers touchés. La plus grande différence avec la Silicon Valley est que DeepSeek n'a pas joué le rôle du « requin » mangeant tous les poissons de l'étang, mais plutôt celui d'un poisson-chat qui a activé tout l'écosystème chinois des grands modèles, poussant tout le monde à adopter l'open source.

Un exemple direct est celui de Moonlight (Yue Zhi An Mian), dont la trajectoire de croissance coïncide étroitement avec celle de DeepSeek : toutes deux sont des équipes startups lancées en 2023, toutes deux maintiennent une structure d'équipe extrêmement réduite mais avec une densité de talents très élevée, et toutes deux sont de ferventes adeptes de la loi de Scaling.

En juillet 2025, Moonlight a publié le premier modèle open source au monde avec des billions de paramètres, Kimi K2, déclarant sans ambages dans son rapport technique avoir adopté l'architecture MLA open source de DeepSeek. Pour les grands modèles, le cauchemar du traitement de textes très longs est le mur de la mémoire, et le caractère révolutionnaire de l'architecture MLA réside dans le fait qu'elle compresse astucieusement le KV Cache à un taux impressionnant de plus de 93%.

Grâce à la « norme industrielle » contribuée par DeepSeek, les équipes de grands modèles, y compris Moonlight, n'ont pas eu à réinventer la roue, réduisant rapidement les coûts d'inférence.

L'histoire ne s'arrête pas là.

En parcourant la documentation technique de DeepSeek V4, l'architecture du modèle est décrite en détail, et l'une des mises à niveau importantes consiste à remplacer l'optimiseur AdamW par Muon pour la plupart des modules, permettant une vitesse de convergence plus rapide et une meilleure stabilité de l'entraînement.

Dans la documentation technique de Kimi K2.6, l'optimiseur Muon est également mentionné, permettant une amélioration de l'efficacité par 2 pour la même quantité d'entraînement.

L'optimiseur Muon, mentionné par les deux modèles, a été initialement proposé par le chercheur indépendant Keller Jordan fin 2024 dans un blog. L'équipe de Moonlight, également aux prises avec AdamW, a apporté des améliorations techniques cruciales à Muon début 2025, ajoutant des capacités comme Weight Decay et le contrôle RMS, et l'a nommé MuonClip.

Moonlight a été la première à valider la stabilité de l'optimiseur Muon sur Kimi K2, réalisant un pré-entraînement complet avec « zéro pic de perte ». DeepSeek, lors de l'entraînement de son grand modèle V4, a également adopté l'optimiseur Muon préalablement validé.

Il convient de noter que la « coévolution » des grands modèles open source ne sombre pas dans l'homogénéisation, mais s'oriente vers une voie d'« harmonie sans uniformité ».

Par exemple, DeepSeek-V4 se concentre sur le renforcement des capacités fondamentales du modèle de base, consolidant davantage le plafond de performance des grands modèles open source mondiaux et fournissant à toute l'industrie une base fondamentale aux performances rivalisant avec les flagships propriétaires ; Kimi K2.6 se spécialise sur l'ingénierie de déploiement des Agents, résolvant le point sensible de l'exécution autonome à long terme des grands modèles, et ouvrant la voie critique à l'entrée des grands modèles dans les scénarios de production réels.

Tout au long de ce processus, il n'y a pas eu de négociations commerciales prolongées, pas de bataille de brevets tendue. Dans le camp open source, l'innovation technologique circule librement comme de l'eau, et celui qui fait du bon travail est utilisé par tous.

Puiser des nutriments dans l'écosystème open source, se compléter sur le plan technologique. Les fabricants chinois de grands modèles démontrent par leurs actions une autre possibilité en dehors de la Silicon Valley.

03 Les États-Unis « construisent des murs », la Chine « construit des routes »

Tout en admirant la coévolution open source, il faut faire face à une réalité commerciale.

Actuellement, les revenus annualisés d'OpenAI et d'Anthropic dépassent tous les deux les dizaines de milliards de dollars, tandis que les revenus des principaux fabricants chinois de grands modèles viennent tout juste de franchir le cap du milliard de dollars annualisé.

La valorisation d'OpenAI sur le marché secondaire est d'environ 8800 milliards de dollars, celle d'Anthropic a grimpé à environ 1000 milliards de dollars, tandis que les valorisations de Kimi et DeepSeek lors de leur dernier tour de financement sont respectivement de 18 et 20 milliards de dollars.

Certains crient que la valorisation des fabricants chinois de grands modèles est sous-estimée, d'autres pensent que : « La capacité à transformer la réputation technologique en argent comptant est l'épreuve cruciale qui se pose aux fabricants chinois. » Les discussions sur le « rapport qualité-prix » de l'open source ont fait rage.

Pour entrevoir l'issue finale, on peut se baser sur les phases de concurrence des grands modèles :

La première phase était « la course aux paramètres, la course aux Benchmarks ». Fin avril 2026, cette phase est pratiquement terminée, les scores des différents acteurs sur les classements n'arrivent plus à creuser un écart substantiel.

La deuxième phase est « la course à l'efficacité de l'entraînement, la course au coût d'inférence, la course à l'innovation architecturale ». C'est la phase actuelle, résultat inévitable de la pression des coûts de calcul.

La troisième phase sera « la course aux systèmes d'Agent, la course à l'écosystème, la course aux développeurs ». Lorsque le Token passera de trafic gratuit à « carburant » pour l'exécution des tâches, la prospérité de l'écosystème déterminera la survie.

Dans quelle niche écologique se situent les grands modèles open source chinois ? Nous avons trouvé deux ensembles de données comparatives直观的.

Le premier est le coût d'entraînement.

GPT-5, publié en août 2025, a coûté plus de 500 millions de dollars à entraîner ; Kimi K2 Thinking, de la même période, a coûté environ 4,6 millions de dollars à entraîner ; DeepSeek n'a pas publié le coût d'entraînement des modèles V4, mais le modèle V3 n'a coûté que 5,576 million de dollars... Les fabricants chinois de grands modèles n'ont utilisé qu'une fraction des ressources d'OpenAI pour entraîner des modèles de niveau équivalent.

L'autre est le volume d'appels.

Début 2026, les données de la plateforme d'agrégation multi-modèles OpenRouter ont montré : Sous l'impulsion des produits Agent représentés par OpenClaw, la consommation mondiale de Tokens a connu une croissance exponentielle, et la « dream team » open source chinoise, grâce à sa réputation « efficace et abordable », a dépassé les États-Unis en volume d'appels pendant plusieurs semaines consécutives.

La raison n'est pas difficile à expliquer.

Le camp open source chinois a déjà validé la « roue de rétroaction positive » : La société A open source une technologie de base, la société B l'adopte et l'optimise sur le plan de l'ingénierie, puis restitue les résultats et l'expérience d'optimisation à tout l'écosystème. Si l'évolution des modèles closed-source est une croissance linéaire basée sur l'empilement massif de puissance de calcul, ce qui attend la voie open source est la diffusion exponentielle apportée par la collision des innovations technologiques.

Selon le rapport de recherche de JPMorgan, le taux de croissance annuel composé (TCAC) de la consommation de tokens d'inférence d'IA en Chine entre 2025 et 2030 sera d'environ 330%, passant de 10 000 milliards de tokens en 2025 à 3900 000 milliards de tokens en 2030, soit une multiplication par 370.

Autrement dit, 2026 est encore au début de l'explosion de l'IA, et il reste des opportunités de croissance de plusieurs centaines de fois au cours des 5 prochaines années, il est bien trop tôt pour tirer des conclusions définitives.

Précisément grâce à la confiance en ces opportunités à long terme, alors que les géants de la Silicon Valley construisent frénétiquement des murs, les fabricants chinois de grands modèles choisissent de renforcer constamment la route vers l'AGI par une complémentarité collaborative.

04 Pour conclure

Qui aura le dernier mot dans cette vague d'IA fracassante ? La réponse ne concerne pas seulement les modèles, mais aussi l'autonomie et le contrôle de la puissance de calcul. Si le modèle est comparé à une « bombe atomique », alors la puissance de calcul nationale, libérée du blocus technologique externe, est la « fusée » qui envoie la bombe atomique dans le ciel.

Il est réconfortant de constater que l'intégration entre les modèles nationaux et la puissance de calcul nationale devient de plus en plus étroite : Dans la documentation technique de DeepSeek V4, le NPU Ascend et le GPU NVIDIA sont listés côte à côte dans la liste de validation matérielle ; Moonlight, dans son dernier article, a fait fonctionner le pré-remplissage et le décodage de l'inférence des grands modèles sur différentes puces, ouvrant la porte à une participation à grande échelle des puces nationales dans l'inférence des modèles.

Début 2025, DeepSeek R1 a offert aux grands modèles nationaux une chance de s'asseoir à la table des négociations ; en 2026, le camp des grands modèles open source chinois, grâce à la collaboration et la coopération, ne cesse de créer davantage de capital dur pour définir les règles du jeu.

Questions liées

QQuels sont les deux principaux avantages de DeepSeek V4 mentionnés dans l'article ?

ADeepSeek V4 présente deux innovations majeures : une capacité de contexte ultra-long d'un million de tokens avec une réduction de 90% du KV cache par rapport à V3.2, et une adaptation aux puces chinoises comme celles de Huawei et Cambricon.

QComment l'article caractérise-t-il la différence d'approche entre les entreprises de IA en Chine et dans la Silicon Valley ?

ALa Silicon Valley adopte une stratégie fermée ('construire des murs') pour protéger ses intérêts, tandis que la Chine privilégie l'open source ('construire des routes') favorisant la collaboration et l'évolution synergique.

QQuel est l'impact de l'architecture MLA de DeepSeek sur l'écosystème des grands modèles chinois ?

AL'architecture MLA de DeepSeek, en réduisant drastiquement le KV Cache, a permis à des entreprises comme Moonlight d'éviter de 'réinventer la roue' et de baisser rapidement les coûts d'inférence, stimulant ainsi tout l'écosystème.

QSelon l'article, quelles sont les trois phases de compétition dans le développement des grands modèles de IA ?

ALes trois phases sont : 1) La course aux paramètres et aux benchmarks, 2) L'efficacité de l'entraînement, le coût de l'inférence et l'innovation architecturale, et 3) Le système d'Agent, l'écosystème et la communauté de développeurs.

QComment l'article justifie-t-il le choix de la voie open source par la Chine malgré des revenus plus faibles ?

AL'article justifie ce choix par la conviction d'une opportunité de croissance exponentielle à long terme (une multiplication par 370 de la consommation de tokens prévue d'ici 2030) et la création d'une 'roue de feedback positive' où l'innovation collaborative prime sur la croissance linéaire par la seule puissance de calcul.

Lectures associées

Test pratique de Hunyuan Hy3 preview : L'IA de Tencent est-elle enfin compétitive ?

Le modèle de langage Hy3 preview de Tencent, récemment lancé en open source, présente des capacités améliorées en raisonnement complexe, génération de code, compréhension contextuelle et interaction naturelle. Avec 295 milliards de paramètres et une prise en charge de contexte jusqu'à 256K, il est présenté comme le modèle le plus performant de la série Hunyuan. Les tests montrent des forces dans le raisonnement logique structuré et l'extraction d'informations en contexte bruité, mais une certaine instabilité face aux pièges logiques ou aux questions ambiguës. En génération de code et en tant qu'agent intelligent (via WorkBuddy), il excède dans les tâches simples et fermées (comme créer un jeu Snake) mais peine à mener à bien des missions complexes nécessitant une analyse approfondie et une livraison complète de résultats. Ses progrès les plus notables concernent le dialogue naturel et l'écriture créative, où il produit des textes fluides, moins stéréotypés et mieux contextualisés, imitant même des styles littéraires spécifiques avec succès. Bien que Hy3 preview ne soit pas révolutionnaire dans tous les domaines, il se positionne comme un modèle pratique et polyvalent. Son lancement marque un virage important pour Tencent, qui cherche à rattraper son retard perçu dans la course à l'IA et à intégrer un modèle performant dans son écosystème de produits (QQ, Tencent Docs, etc.). Une version plus grande est attendue prochainement.

marsbitIl y a 1 h

Test pratique de Hunyuan Hy3 preview : L'IA de Tencent est-elle enfin compétitive ?

marsbitIl y a 1 h

Google et Amazon investissent simultanément dans un concurrent, la logique commerciale la plus absurde de l'ère IA devient réalité

En l'espace de 4 jours, Amazon a annoncé un investissement supplémentaire de 25 milliards de dollars et Google jusqu'à 40 milliards de dollars dans Anthropic, une startup d'IA. Ces deux concurrents directs ont ainsi engagé plus de 65 milliards de dollars dans la même entreprise. Cet investissement massif ne relève pas d'une logique capitalistique traditionnelle, mais marque le début d'un nouveau round dans la guerre du cloud. L'enjeu pour Google et Amazon n'est pas la simple possession d'une part d'Anthropic, mais la sécurisation de contrats de pré-achat de puissance de calcul (ou "pré-vente de calcul"). Les fonds investis sont conditionnés à ce qu'Anthropic les dépense en services cloud et puces des investisseurs. Amazon a obtenu un engagement de dépense de plus de 1000 milliards de dollars sur AWS sur dix ans, et Google fournira environ 5 gigawatts de puissance de calcul. La concurrence dans le cloud a changé : les entreprises ne choisissent plus un fournisseur pour son prix ou sa stabilité, mais pour savoir "quel modèle d'IA de pointe tourne sur son cloud". Le modèle détermine le choix de la puissance de calcul. OpenAI étant déjà étroitement lié à Microsoft, Anthropic et son modèle Claude sont devenus la seule cible stratégique disponible pour Google et Amazon pour ne pas perdre des clients entreprises. Anthropic, avec un revenu annuel récurrent (ARR) de 30 milliards de dollars, est devenu un acteur infrastructurel incontournable. Cependant, cette dépendance financière et technique envers deux géants concurrents pose des défis pour son indépendance future, sa narration autour de la sécurité et sa pression pour une introduction en bourse. La situation contraste avec celle de la Chine, où des investissements comme celui d'Alibaba et Tencent dans DeepSeek (modèle open-source) suivent une logique différente, moins centrée sur un verrouillage par la puissance de calcul et plus ouverte. Le paysage de l'IA évolue ainsi vers une structure à plusieurs pôles fermés (modèles privateurs liés à un cloud spécifique), tandis que les modèles open-source offrent une alternative cruciale pour l'écosystème.

marsbitIl y a 8 h

Google et Amazon investissent simultanément dans un concurrent, la logique commerciale la plus absurde de l'ère IA devient réalité

marsbitIl y a 8 h

Capacité de calcul limitée : pourquoi DeepSeek-V4 est-il open source ?

Face à des contraintes de calcul, DeepSeek a choisi de rendre son modèle DeepSeek-V4 open source, tout en proposant une version Pro aux capacités avancées mais limitée en débit en raison de ressources de calcul haute performance insuffisantes. Le modèle exploite une architecture MoE (Mixture of Experts) avec 1,6T de paramètres au total mais seulement 49B activés lors de l'inférence, permettant une gestion de contexte longue (1 million de tokens). Une version Flash, avec 284B de paramètres totaux et seulement 13B activés, est conçue pour une adoption massive sur du matériel moins performant, visant ainsi les PME et développeurs. Le modèle excelle dans des tâches exigeantes comme la génération de code et le raisonnement complexe, rivalisant avec des modèles fermés leaders. DeepSeek a également collaboré avec des fabricants de puces chinoises (Huawei, Cambricon, Hygon) pour optimiser l'exécution sur du matériel local, bien que des défis persistent en termes de performance pure et d’approvisionnement. Cette stratégie intervient dans un contexte de concurrence intense sur le marché chinois des modèles de langage et de départs clés dans l’équipe R&D. DeepSeek cherche également à lever des fonds à une valorisation élevée, et cette version open source constitue une démonstration de sa résilience technologique et de son orientation pragmatique vers une IA accessible malgré les limites actuelles du calcul.

marsbitIl y a 8 h

Capacité de calcul limitée : pourquoi DeepSeek-V4 est-il open source ?

marsbitIl y a 8 h

Trading

Spot
Futures

Articles tendance

Qu'est ce que $S$

Comprendre SPERO : Un aperçu complet Introduction à SPERO Alors que le paysage de l'innovation continue d'évoluer, l'émergence des technologies web3 et des projets de cryptomonnaie joue un rôle central dans la façon dont se dessine l'avenir numérique. Un projet qui a attiré l'attention dans ce domaine dynamique est SPERO, désigné comme SPERO,$$s$. Cet article vise à rassembler et à présenter des informations détaillées sur SPERO, afin d'aider les passionnés et les investisseurs à comprendre ses fondations, ses objectifs et ses innovations dans les domaines du web3 et de la crypto. Qu'est-ce que SPERO,$$s$ ? SPERO,$$s$ est un projet unique dans l'espace crypto qui cherche à tirer parti des principes de décentralisation et de la technologie blockchain pour créer un écosystème qui favorise l'engagement, l'utilité et l'inclusion financière. Le projet est conçu pour faciliter les interactions entre pairs de nouvelles manières, offrant aux utilisateurs des solutions et des services financiers innovants. Au cœur de SPERO,$$s$, l'objectif est d'autonomiser les individus en fournissant des outils et des plateformes qui améliorent l'expérience utilisateur dans l'espace des cryptomonnaies. Cela inclut la possibilité de méthodes de transaction plus flexibles, la promotion d'initiatives dirigées par la communauté et la création de voies pour des opportunités financières via des applications décentralisées (dApps). La vision sous-jacente de SPERO,$$s$ tourne autour de l'inclusivité, visant à combler les lacunes au sein de la finance traditionnelle tout en exploitant les avantages de la technologie blockchain. Qui est le créateur de SPERO,$$s$ ? L'identité du créateur de SPERO,$$s$ reste quelque peu obscure, car il existe peu de ressources publiques fournissant des informations détaillées sur son ou ses fondateurs. Ce manque de transparence peut découler de l'engagement du projet envers la décentralisation—une éthique que de nombreux projets web3 partagent, privilégiant les contributions collectives plutôt que la reconnaissance individuelle. En centrant les discussions autour de la communauté et de ses objectifs collectifs, SPERO,$$s$ incarne l'essence de l'autonomisation sans désigner des individus spécifiques. Ainsi, comprendre l'éthique et la mission de SPERO reste plus important que d'identifier un créateur unique. Qui sont les investisseurs de SPERO,$$s$ ? SPERO,$$s$ est soutenu par une diversité d'investisseurs allant des capital-risqueurs aux investisseurs providentiels dédiés à favoriser l'innovation dans le secteur crypto. L'objectif de ces investisseurs s'aligne généralement avec la mission de SPERO—priorisant les projets qui promettent des avancées technologiques sociétales, l'inclusivité financière et la gouvernance décentralisée. Ces fondations d'investisseurs s'intéressent généralement à des projets qui non seulement offrent des produits innovants, mais qui contribuent également positivement à la communauté blockchain et à ses écosystèmes. Le soutien de ces investisseurs renforce SPERO,$$s$ en tant que concurrent notable dans le domaine en rapide évolution des projets crypto. Comment fonctionne SPERO,$$s$ ? SPERO,$$s$ utilise un cadre multifacette qui le distingue des projets de cryptomonnaie conventionnels. Voici quelques-unes des caractéristiques clés qui soulignent son unicité et son innovation : Gouvernance décentralisée : SPERO,$$s$ intègre des modèles de gouvernance décentralisée, permettant aux utilisateurs de participer activement aux processus de décision concernant l'avenir du projet. Cette approche favorise un sentiment de propriété et de responsabilité parmi les membres de la communauté. Utilité du token : SPERO,$$s$ utilise son propre token de cryptomonnaie, conçu pour servir diverses fonctions au sein de l'écosystème. Ces tokens permettent des transactions, des récompenses et la facilitation des services offerts sur la plateforme, améliorant ainsi l'engagement et l'utilité globaux. Architecture en couches : L'architecture technique de SPERO,$$s$ supporte la modularité et l'évolutivité, permettant une intégration fluide de fonctionnalités et d'applications supplémentaires à mesure que le projet évolue. Cette adaptabilité est primordiale pour maintenir la pertinence dans le paysage crypto en constante évolution. Engagement communautaire : Le projet met l'accent sur des initiatives dirigées par la communauté, utilisant des mécanismes qui incitent à la collaboration et aux retours d'expérience. En cultivant une communauté forte, SPERO,$$s$ peut mieux répondre aux besoins des utilisateurs et s'adapter aux tendances du marché. Accent sur l'inclusion : En proposant des frais de transaction bas et des interfaces conviviales, SPERO,$$s$ vise à attirer une base d'utilisateurs diversifiée, y compris des individus qui n'ont peut-être pas engagé auparavant dans l'espace crypto. Cet engagement envers l'inclusion s'aligne avec sa mission globale d'autonomisation par l'accessibilité. Chronologie de SPERO,$$s$ Comprendre l'histoire d'un projet fournit des aperçus cruciaux sur sa trajectoire de développement et ses jalons. Voici une chronologie suggérée cartographiant les événements significatifs dans l'évolution de SPERO,$$s$ : Phase de conceptualisation et d'idéation : Les idées initiales formant la base de SPERO,$$s$ ont été conçues, s'alignant étroitement avec les principes de décentralisation et de concentration sur la communauté au sein de l'industrie blockchain. Lancement du livre blanc du projet : Suite à la phase conceptuelle, un livre blanc complet détaillant la vision, les objectifs et l'infrastructure technologique de SPERO,$$s$ a été publié pour susciter l'intérêt et les retours de la communauté. Construction de la communauté et engagements précoces : Des efforts de sensibilisation actifs ont été entrepris pour construire une communauté d'adopteurs précoces et d'investisseurs potentiels, facilitant les discussions autour des objectifs du projet et recueillant du soutien. Événement de génération de tokens : SPERO,$$s$ a organisé un événement de génération de tokens (TGE) pour distribuer ses tokens natifs aux premiers soutiens et établir une liquidité initiale au sein de l'écosystème. Lancement de la première dApp : La première application décentralisée (dApp) associée à SPERO,$$s$ a été mise en ligne, permettant aux utilisateurs d'interagir avec les fonctionnalités principales de la plateforme. Développement continu et partenariats : Des mises à jour et des améliorations continues des offres du projet, y compris des partenariats stratégiques avec d'autres acteurs de l'espace blockchain, ont façonné SPERO,$$s$ en un acteur compétitif et évolutif sur le marché crypto. Conclusion SPERO,$$s$ se dresse comme un témoignage du potentiel du web3 et de la cryptomonnaie pour révolutionner les systèmes financiers et autonomiser les individus. Avec un engagement envers la gouvernance décentralisée, l'engagement communautaire et des fonctionnalités conçues de manière innovante, il ouvre la voie vers un paysage financier plus inclusif. Comme pour tout investissement dans l'espace crypto en rapide évolution, les investisseurs et utilisateurs potentiels sont encouragés à mener des recherches approfondies et à s'engager de manière réfléchie avec les développements en cours au sein de SPERO,$$s$. Le projet illustre l'esprit d'innovation de l'industrie crypto, invitant à une exploration plus approfondie de ses nombreuses possibilités. Bien que le parcours de SPERO,$$s$ soit encore en cours, ses principes fondamentaux pourraient en effet influencer l'avenir de nos interactions avec la technologie, la finance et entre nous dans des écosystèmes numériques interconnectés.

101 vues totalesPublié le 2024.12.17Mis à jour le 2024.12.17

Qu'est ce que $S$

Qu'est ce que AGENT S

Agent S : L'avenir de l'interaction autonome dans Web3 Introduction Dans le paysage en constante évolution de Web3 et des cryptomonnaies, les innovations redéfinissent constamment la manière dont les individus interagissent avec les plateformes numériques. Un projet pionnier, Agent S, promet de révolutionner l'interaction homme-machine grâce à son cadre agentique ouvert. En ouvrant la voie à des interactions autonomes, Agent S vise à simplifier des tâches complexes, offrant des applications transformantes dans l'intelligence artificielle (IA). Cette exploration détaillée plongera dans les subtilités du projet, ses caractéristiques uniques et les implications pour le domaine des cryptomonnaies. Qu'est-ce qu'Agent S ? Agent S se présente comme un cadre agentique ouvert révolutionnaire, spécifiquement conçu pour relever trois défis fondamentaux dans l'automatisation des tâches informatiques : Acquisition de connaissances spécifiques au domaine : Le cadre apprend intelligemment à partir de diverses sources de connaissances externes et d'expériences internes. Cette approche double lui permet de construire un riche répertoire de connaissances spécifiques au domaine, améliorant ainsi sa performance dans l'exécution des tâches. Planification sur de longs horizons de tâches : Agent S utilise une planification hiérarchique augmentée par l'expérience, une approche stratégique qui facilite la décomposition et l'exécution efficaces de tâches complexes. Cette fonctionnalité améliore considérablement sa capacité à gérer plusieurs sous-tâches de manière efficace et efficiente. Gestion d'interfaces dynamiques et non uniformes : Le projet introduit l'Interface Agent-Ordinateur (ACI), une solution innovante qui améliore l'interaction entre les agents et les utilisateurs. En utilisant des Modèles de Langage Multimodaux de Grande Taille (MLLMs), Agent S peut naviguer et manipuler sans effort diverses interfaces graphiques. Grâce à ces fonctionnalités pionnières, Agent S fournit un cadre robuste qui aborde les complexités impliquées dans l'automatisation de l'interaction humaine avec les machines, préparant le terrain pour d'innombrables applications en IA et au-delà. Qui est le créateur d'Agent S ? Bien que le concept d'Agent S soit fondamentalement innovant, des informations spécifiques sur son créateur restent insaisissables. Le créateur est actuellement inconnu, ce qui souligne soit le stade naissant du projet, soit le choix stratégique de garder les membres fondateurs sous le radar. Quoi qu'il en soit, l'accent reste mis sur les capacités et le potentiel du cadre. Qui sont les investisseurs d'Agent S ? Étant donné qu'Agent S est relativement nouveau dans l'écosystème cryptographique, des informations détaillées concernant ses investisseurs et soutiens financiers ne sont pas explicitement documentées. Le manque d'aperçus publiquement disponibles sur les fondations d'investissement ou les organisations soutenant le projet soulève des questions sur sa structure de financement et sa feuille de route de développement. Comprendre le soutien est crucial pour évaluer la durabilité du projet et son impact potentiel sur le marché. Comment fonctionne Agent S ? Au cœur d'Agent S se trouve une technologie de pointe qui lui permet de fonctionner efficacement dans divers environnements. Son modèle opérationnel est construit autour de plusieurs caractéristiques clés : Interaction homme-ordinateur semblable à l'humain : Le cadre offre une planification IA avancée, s'efforçant de rendre les interactions avec les ordinateurs plus intuitives. En imitant le comportement humain dans l'exécution des tâches, il promet d'élever l'expérience utilisateur. Mémoire narrative : Utilisée pour tirer parti des expériences de haut niveau, Agent S utilise la mémoire narrative pour suivre les historiques de tâches, améliorant ainsi ses processus de prise de décision. Mémoire épisodique : Cette fonctionnalité fournit aux utilisateurs un accompagnement étape par étape, permettant au cadre d'offrir un soutien contextuel au fur et à mesure que les tâches se déroulent. Support pour OpenACI : Avec la capacité de fonctionner localement, Agent S permet aux utilisateurs de garder le contrôle sur leurs interactions et flux de travail, s'alignant avec l'éthique décentralisée de Web3. Intégration facile avec des API externes : Sa polyvalence et sa compatibilité avec diverses plateformes IA garantissent qu'Agent S peut s'intégrer sans effort dans des écosystèmes technologiques existants, en faisant un choix attrayant pour les développeurs et les organisations. Ces fonctionnalités contribuent collectivement à la position unique d'Agent S dans l'espace crypto, alors qu'il automatise des tâches complexes en plusieurs étapes avec un minimum d'intervention humaine. À mesure que le projet évolue, ses applications potentielles dans Web3 pourraient redéfinir la manière dont les interactions numériques se déroulent. Chronologie d'Agent S Le développement et les jalons d'Agent S peuvent être encapsulés dans une chronologie qui met en évidence ses événements significatifs : 27 septembre 2024 : Le concept d'Agent S a été lancé dans un document de recherche complet intitulé “Un cadre agentique ouvert qui utilise les ordinateurs comme un humain”, présentant les bases du projet. 10 octobre 2024 : Le document de recherche a été rendu publiquement disponible sur arXiv, offrant une exploration approfondie du cadre et de son évaluation de performance basée sur le benchmark OSWorld. 12 octobre 2024 : Une présentation vidéo a été publiée, fournissant un aperçu visuel des capacités et des caractéristiques d'Agent S, engageant davantage les utilisateurs et investisseurs potentiels. Ces jalons dans la chronologie illustrent non seulement les progrès d'Agent S, mais indiquent également son engagement envers la transparence et l'engagement communautaire. Points clés sur Agent S Alors que le cadre Agent S continue d'évoluer, plusieurs attributs clés se distinguent, soulignant sa nature innovante et son potentiel : Cadre innovant : Conçu pour offrir une utilisation intuitive des ordinateurs semblable à l'interaction humaine, Agent S propose une approche nouvelle de l'automatisation des tâches. Interaction autonome : La capacité d'interagir de manière autonome avec les ordinateurs via une interface graphique signifie un bond vers des solutions informatiques plus intelligentes et efficaces. Automatisation des tâches complexes : Avec sa méthodologie robuste, il peut automatiser des tâches complexes en plusieurs étapes, rendant les processus plus rapides et moins sujets aux erreurs. Amélioration continue : Les mécanismes d'apprentissage permettent à Agent S de s'améliorer grâce à ses expériences passées, améliorant continuellement sa performance et son efficacité. Polyvalence : Son adaptabilité à travers différents environnements d'exploitation comme OSWorld et WindowsAgentArena garantit qu'il peut servir un large éventail d'applications. Alors qu'Agent S se positionne dans le paysage Web3 et crypto, son potentiel à améliorer les capacités d'interaction et à automatiser les processus représente une avancée significative dans les technologies IA. Grâce à son cadre innovant, Agent S incarne l'avenir des interactions numériques, promettant une expérience plus fluide et efficace pour les utilisateurs à travers divers secteurs. Conclusion Agent S représente un saut audacieux en avant dans le mariage de l'IA et de Web3, avec la capacité de redéfinir notre interaction avec la technologie. Bien qu'il soit encore à ses débuts, les possibilités de son application sont vastes et convaincantes. Grâce à son cadre complet abordant des défis critiques, Agent S vise à mettre les interactions autonomes au premier plan de l'expérience numérique. À mesure que nous plongeons plus profondément dans les domaines des cryptomonnaies et de la décentralisation, des projets comme Agent S joueront sans aucun doute un rôle crucial dans la façon dont la technologie et la collaboration homme-machine évolueront à l'avenir.

753 vues totalesPublié le 2025.01.14Mis à jour le 2025.01.14

Qu'est ce que AGENT S

Comment acheter S

Bienvenue sur HTX.com ! Nous vous permettons d'acheter Sonic (S) de manière simple et pratique. Suivez notre guide étape par étape pour commencer votre parcours crypto.Étape 1 : Création de votre compte HTXUtilisez votre adresse e-mail ou votre numéro de téléphone pour ouvrir un compte sur HTX gratuitement. L'inscription se fait en toute simplicité et débloque toutes les fonctionnalités.Créer mon compteÉtape 2 : Choix du mode de paiement (rubrique Acheter des cryptosCarte de crédit/débit : utilisez votre carte Visa ou Mastercard pour acheter instantanément Sonic (S).Solde :utilisez les fonds du solde de votre compte HTX pour trader en toute simplicité.Prestataire tiers :pour accroître la commodité d'utilisation, nous avons ajouté des modes de paiement populaires tels que Google Pay et Apple Pay.P2P :tradez directement avec d'autres utilisateurs sur HTX.OTC (de gré à gré) : nous offrons des services personnalisés et des taux de change compétitifs aux traders.Étape 3 : stockage de vos Sonic (S)Après avoir acheté vos Sonic (S), stockez-les sur votre compte HTX. Vous pouvez également les envoyer ailleurs via un transfert sur la blockchain ou les utiliser pour trader d'autres cryptos.Étape 4 : tradez des Sonic (S)Tradez facilement Sonic (S) sur le marché Spot de HTX. Il vous suffit d'accéder à votre compte, de sélectionner la paire de trading, d'exécuter vos trades et de les suivre en temps réel. Nous offrons une expérience conviviale aux débutants comme aux traders chevronnés.

1.3k vues totalesPublié le 2025.01.15Mis à jour le 2025.03.21

Comment acheter S

Discussions

Bienvenue dans la Communauté HTX. Ici, vous pouvez vous tenir informé(e) des derniers développements de la plateforme et accéder à des analyses de marché professionnelles. Les opinions des utilisateurs sur le prix de S (S) sont présentées ci-dessous.

活动图片