La prédiction de Tsinghua il y a 2 ans devient un consensus mondial : Meta et deux autres grands acteurs de l'IA parviennent à la même conclusion

marsbitPublié le 2026-04-13Dernière mise à jour le 2026-04-13

Résumé

Résumé : Il y a deux ans, une équipe de recherche chinoise de l’Université Tsinghua et de Mindverse AI a proposé la « loi de densité » des grands modèles de langage (LLM), prédisant que les paramètres requis pour atteindre un niveau d’intelligence donné diminuent de moitié tous les 3,5 mois. Début avril 2026, Meta et METR ont publié indépendamment des résultats confirmant cette prédiction : Meta avec son modèle Muse Spark (efficacité d’entraînement multipliée par 10 en un an), et METR avec un doublement des capacités d’IA tous les 88,6 jours. Leurs courbes, bien que mesurant des métriques différentes (calcul d’entraînement, longueur de tâche, paramètres), alignent parfaitement avec la loi de densité. Cette validation multi-source renforce la crédibilité de la loi et implique des conséquences majeures : chute accélérée des coûts, intelligence embarquée puissante proche, et changement de stratégie industrielle vers l’efficacité plutôt que la taille. La Chine a ici pris une avance théorique et pratique significative.

【Introduction】C'est fou ! Les données d'évolution de l'IA récemment mesurées par Meta et METR coïncident parfaitement avec la « loi de densité » proposée il y a deux ans par une équipe chinoise. La Silicon Valley se retourne soudainement et découvre que les chercheurs chinois ont deux ans d'avance sur cette voie !

Les trois institutions de recherche en IA les plus sérieuses au monde sont entrées en collision collective la semaine dernière !

Le 3 avril, l'institution de recherche américaine METR a discrètement mis à jour un rapport technique, résumant sa conclusion principale en une phrase.

La capacité de l'IA double tous les 88,6 jours.

Cinq jours plus tard, le 8 avril, le Meta Super Intelligence Lab a publié un nouveau modèle, Muse Spark, présentant une courbe d'efficacité d'entraînement appelée en interne « scaling ladder », dont la conclusion est également une phrase.

Pour atteindre les performances du Llama 4 Maverick d'il y a un an, le nouveau modèle n'a besoin que de moins d'un dixième de la puissance de calcul d'entraînement.

L'un mesure la durée des tâches, l'autre la puissance d'entraînement. Les deux institutions n'ont aucun lien, et leurs méthodes de recherche ne se chevauchent pas.

Mais lorsque les deux courbes sont converties dans le même système de coordonnées, leurs pentes coïncident presque parfaitement.

Jusqu'ici, c'était déjà assez incroyable.

Ce qui l'est encore plus, c'est que cette courbe avait été tracée intégralement il y a deux ans par une équipe chinoise, et avait été publiée dans un journal affilié à Nature.

Elle s'appelle la loi de densité.

Il y a deux ans, quelqu'un avait déjà tracé cette ligne

Ce concept est apparu pour la première fois dans un article intitulé « Densing Law of LLMs ».

Les auteurs étaient une équipe conjointe de Smart Surface (面壁智能) et de l'Université Tsinghua, dirigée par les professeurs Sun Maosong et Liu Zhiyuan, avec le doctorant Xiao Chaojun comme premier auteur.

L'article a été mis en ligne sur arXiv en décembre 2024 et accepté par Nature Machine Intelligence en novembre 2025.

Adresse de l'article : https://arxiv.org/abs/2412.04315

Adresse de l'article : https://www.nature.com/articles/s42256-025-01137-0

Le jugement central de l'article ne tient qu'en une phrase.

La densité d'intelligence du modèle augmente de façon exponentielle avec le temps, et le nombre de paramètres requis pour atteindre un niveau d'intelligence spécifique diminue de moitié tous les 3,5 mois.

Fin 2024, cette affirmation semblait un peu radicale.

A cette époque, toute l'industrie vénérait la « scaling law ». OpenAI empilait les modèles, Anthropic empilait les modèles, Meta aussi empilait les modèles.

Tout le monde pensait que plus les paramètres étaient grands, plus l'intelligence était forte, et que la voie royale était de pousser les GPU à leur limite.

Mais l'équipe de recherche ne voyait pas les choses ainsi.

Ils ont placé tous les modèles de base open source influents de l'époque, de Llama-1 à Gemma-2 et MiniCPM-3, soit 51 modèles au total, dans la même échelle pour les mesurer.

Après avoir exécuté cinq benchmarks, le résultat était une relation exponentielle presque parfaite, avec un R² atteignant 0,934.

Considérant que l'évaluation des grands modèles est facilement biaisée par la contamination des données, ils ont retesté avec un nouvel ensemble de données filtré contre la pollution, MMLU-CF. R²=0,953.

Les deux ajustements ont obtenu un R² proche de 1. Statistiquement, il est presque impossible que ce soit une coïncidence.

En d'autres termes, chaque modèle open source majeur publié ces deux dernières années, quelle que soit l'équipe ou l'architecture utilisée, s'est situé sur la même ligne exponentielle de « doublement tous les 3,5 mois ».

Jusqu'ici, l'histoire n'était que « une équipe chinoise a proposé une loi empirique qui semble radicale ».

Ce qui a vraiment transformé cela en un « moment », c'est ce qui s'est passé au cours des six mois suivants.

Trois institutions, trois méthodes, une même pente

Examinons les conclusions des trois parties : Smart Surface, Meta, METR.

  • La loi de densité de Smart Surface mesure « combien de paramètres sont nécessaires pour un même niveau d'intelligence ». La conclusion est que le besoin en paramètres diminue de moitié tous les 3,5 mois.
  • Le « scaling ladder » de Meta mesure « combien de puissance de calcul d'entraînement est nécessaire pour un même niveau d'intelligence ». La conclusion est que Muse Spark économise un ordre de grandeur par rapport au Llama 4 Maverick d'il y a un an.
  • Le rapport sur l'horizon temporel de METR mesure « la longueur de tâche qu'un même modèle peut gérer ». La conclusion est que la durée des tâches double tous les 88,6 jours.

Trois mesures. Trois institutions académiques. Trois chemins de recherche sans aucun chevauchement.

Mais lorsque tous les chiffres sont convertis dans le même système de coordonnées, les pentes de leurs courbes coïncident presque parfaitement.

Le point le plus facilement négligé est que la loi de densité est la première des trois à avoir été proposée. Près de deux ans avant le « scaling ladder » de Meta, et plus d'un an avant la modélisation complète de METR.

Et lorsque Meta a tracé cette courbe « scaling ladder » dans son blog de publication début avril, ils ne se sont probablement pas rendu compte que la forme de ce graphique était presque identique à celle d'une courbe sur une présentation PPT d'une conférence académique à Pékin en 2024.

Quelle observation mérite le nom de « loi »

Dans le monde scientifique, il existe un ensemble de critères informels pour juger si une observation empirique mérite d'être appelée une « loi ».

Ce n'est pas la beauté des données qui compte, mais sa capacité à tenir dans plusieurs systèmes de mesure indépendants.

La loi de Moore est une loi parce que l'industrie des semi-conducteurs l'a validée maintes et maintes fois sur des décennies, sous trois angles complètement différents : la précision de la photolithographie, la densité des transistors, le coût par unité de calcul.

La loi de densité suit le même chemin.

Au début, ce n'était qu'une courbe d'ajustement provenant d'une seule équipe. Au moment de son acceptation par Nature Machine Intelligence, elle pouvait déjà être reproduite sur un ensemble de données filtré contre la pollution. Et ce mois-ci, elle a été validée indépendamment deux fois de plus, dans les données d'entraînement de Meta et les évaluations de tâches de METR.

Placé dans un système de coordonnées plus large, ce moment ressemble étrangement aux années 1880, lorsque l'électricité est entrée à New York.

À cette époque aussi, plusieurs inventeurs différents, ingénieurs différents, villes différentes, travaillaient chacun sur leur propre réseau électrique. Jusqu'à ce que quelqu'un trace les courbes de développement de tous les projets sur une même feuille de papier, et que les gens réalisent soudain. Ce n'était pas quelques progrès techniques dispersés, c'était une nouvelle ère qui se déployait discrètement.

Sauf que cette fois, il a fallu moins d'un an entre la publication de l'article et sa validation par des pairs mondiaux.

Trois推论 (inférences), chacune réécrit les hypothèses de l'industrie

Si la loi de densité tient debout, elle va réécrire beaucoup de choses simultanément.

Premièrement, le coût de l'inférence s'effondrera plus vite que prévu par tous.

Une inférence de la loi de densité est que le coût de l'inférence pour un LLM de performances similaires diminue probablement de moitié environ tous les 2,6 mois.

Aujourd'hui, cette baisse a déjà été dépassée par la réalité.

Les dernières données de suivi d'Epoch AI montrent que pour les LLM atteignant le niveau de performance de Claude 3.5 Sonnet, le prix par token a baissé de 400 fois au cours de la dernière année. La baisse la plus rapide pour ce niveau de performance a atteint 900 fois/an.

Le niveau tarifaire de GPT-3.5 fin 2022, à 20 dollars par million de tokens, coûte aujourd'hui seulement 0,02 dollar avec Mistral Nemo, 1000 fois moins cher, et le modèle est plus performant.

Rétrospectivement, les prédictions de l'article étaient conservatrices.

Deuxièmement, le point de rupture de l'intelligence on-device est plus proche que tout le monde ne le pensait.

Multiplier la loi de densité par la loi de Moore donne un chiffre encore plus stimulant.

Selon les estimations actuelles, la taille maximale effective du modèle pouvant fonctionner sur une puce au même prix double environ tous les 88 jours.

Ce chiffre concorde presque parfaitement avec les 88,6 jours calculés par METR. Deux chemins de calcul complètement différents sont entrés en collision après la décimale.

Dans les trois à cinq prochaines années, faire tourner un modèle de niveau GPT actuel sur un ordinateur portable ordinaire, voire un téléphone portable, pourrait ne plus être de la science-fiction.

Troisièmement, la stratégie optimale de l'industrie des grands modèles est en train de s'inverser discrètement.

Au cours des trois dernières années, la compréhension par l'industrie de la « scaling law » est restée bloquée sur « empiler les paramètres et les données ».

Mais la loi de densité donne un jugement contre-intuitif. Dans un contexte de croissance exponentielle continue de la densité, tout modèle le plus performant à un instant donné n'a qu'une fenêtre d'optimalité de quelques mois.

Miser toutes les ressources pour entraîner un modèle plus grand, puis attendre trois mois pour qu'il soit surpassé par un nouveau modèle deux fois plus petit, n'est pas rentable sur le plan économique.

La voie vraiment durable est d'investir les ressources dans l'amélioration de la densité elle-même. De meilleures architectures, des données de meilleure qualité, des algorithmes d'entraînement plus intelligents.

Smart Surface, avançant toujours selon l'échelle qu'elle a elle-même tracée

Il convient de mentionner que la loi de densité n'est pas un article publié puis oublié.

Smart Surface (面壁智能), qui a proposé cette théorie, a passé les deux dernières années à la vérifier avec sa propre série de modèles « Little Cannon » (小钢炮, MiniCPM).

Lorsque le MiniCPM-1-2.4B a été publié en février 2024, ses scores égalait ou dépassait ceux du Mistral-7B de septembre 2023. Autrement dit, en quatre mois, avec 35% des paramètres, il atteignait des performances équivalentes.

Ce chiffre a été directement inscrit dans l'article de Nature Machine Intelligence, comme première preuve empirique de la loi de densité.

Depuis, la série Little Cannon a été open source tout du long, couvrant les quatre grandes directions : texte, multimodal, voix, pleine modalité, avec des paramètres inférieurs à 10B. Cette exhaustivité en open source, en Chine, seule Alibaba, outre Smart Surface, l'a atteinte.

Jusqu'à présent, la série Little Cannon a dépassé les 24 millions de téléchargements open source dans le monde.

Ce n'est pas le plus grand modèle de l'industrie. Mais c'est la première équipe de l'industrie à avoir exécuté la priorité à la « densité » comme méthodologie d'entreprise.

Et lorsque Meta et METR ont validé la loi de densité à leur manière durant la semaine d'avril 2026, cette entreprise chinoise qui a commencé à entraîner des modèles selon cette méthodologie dès 2024, avait en réalité deux ans d'avance en expérience technique.

Cette fois, les chercheurs chinois se tiennent au point de départ de la courbe

Un cadre théorique proposé il y a deux ans par une équipe de recherche chinoise est en train d'être redécouvert, chacun à sa manière, par des institutions étrangères des plus sérieuses comme Meta et METR.

Le poids de cet événement pourrait prendre un peu de temps pour être pleinement compris.

Ce n'est pas une histoire de « nous aussi, nous pouvons le faire ». C'est une histoire de « nous l'avons vu un peu plus tôt ».

De tels instants ne sont pas si fréquents dans l'histoire des sciences. Un jugement mis en doute en 2024 est devenu en 2026 une même courbe pointée par plusieurs preuves indépendantes.

Ce genre de « coïncidence » transrégionale, transméthode, transinstitutionnelle, s'est produit quelques fois en physique, chacune marquant la fin d'un ancien paradigme et le début d'un nouveau.

Cette fois, les chercheurs chinois en IA se tiennent à ce point de départ.

Et cette courbe continue de monter, doublant tous les 88 jours.

Références :

La « loi de densité »首创 (pionnière) de Smart Surface, reconnue par Meta et d'autres institutions étrangères de premier plan

https://arxiv.org/abs/2412.04315

https://www.nature.com/articles/s42256-025-01137-0

https://metr.org/blog/2026-1-29-time-horizon-1-1/

https://ai.meta.com/blog/introducing-muse-spark-msl/

Cet article provient du compte WeChat public « 新智元 » (New Zhi Yuan), édité par Hao Kun et Taozi

Questions liées

QQuelle est la conclusion principale de l'article concernant l'évolution de l'IA ?

ALa conclusion principale est que les capacités de l'IA doublent tous les 88,6 jours, une prédiction faite il y a deux ans par une équipe chinoise de l'Université Tsinghua et de l'entreprise FaceWall Intelligence, et qui est maintenant confirmée par Meta et METR.

QQu'est-ce que la 'loi de densité' proposée par l'équipe sino-tunisienne ?

ALa 'loi de densité' stipule que la densité intelligente des modèles augmente de façon exponentielle dans le temps. La quantité de paramètres nécessaires pour atteindre un niveau d'intelligence spécifique est réduite de moitié tous les 3,5 mois.

QComment les recherches de Meta et de METR corroborent-elles la loi de densité ?

AMeta, avec sa courbe d'efficacité de formation 'scaling ladder', et METR, avec son rapport sur l'évolution temporelle des tâches, ont obtenu des courbes dont la pente coïncide presque parfaitement avec celle prédite par la loi de densité, et ce, de manière indépendante et avec des méthodes différentes.

QQuelles sont les implications de la loi de densité pour l'avenir de l'IA selon l'article ?

ALa loi de densité implique que 1) le coût de l'inférence des modèles linguistiques chutera plus vite que prévu, 2) l'intelligence sur les appareils edge (périphériques) deviendra une réalité plus tôt que prévu, et 3) la stratégie optimale de l'industrie des grands modèles évoluera, privilégiant l'amélioration de la densité (meilleures architectures, données, algorithmes) plutôt que simplement l'augmentation de la taille des modèles.

QQuel rôle l'équipe et l'entreprise chinoises FaceWall Intelligence ont-elles joué dans cette découverte ?

AL'équipe de recherche conjointe de l'Université Tsinghua et de FaceWall Intelligence a été la première à proposer et publier la 'loi de densité' fin 2024. Leurs travaux ont été validés par la revue Nature Machine Intelligence. De plus, leur série de modèles open-source 'MiniCPM' (ou 'Petit Canon') a servi de preuve empirique précoce de cette loi, et l'entreprise a continué cette méthodologie dans son développement, accumulant ainsi deux ans d'avance en ingénierie.

Lectures associées

Le projet de loi CLARITY atteint un moment charnière : la cryptomonnaie américaine à un carrefour réglementaire

Un tournant historique pour la régulation des cryptomonnaies aux États-Unis se joue en 2026. Le « CLARITY Act », loi cruciale pour définir la structure du marché des actifs numériques, doit être approuvé par la commission bancaire du Sénat avant fin avril, sans quoi son adoption pourrait être reportée de plusieurs années. Parallèlement, le « GENIUS Act », déjà adopté, impose un cadre prudentiel aux stablecoins, favorisant une concentration du marché autour d’acteurs conformes comme USDC et USAT (la nouvelle entité de Tether pour le marché institutionnel américain), tout en comprimant la place de l’USDT. Un compromis bipartisan, mené par les sénateurs Tillis et Alsobrooks, propose d’autoriser les récompenses sur les stablecoins liées à des activités, mais d’interdire les rendements passifs purs, une question au cœur des tensions avec le secteur bancaire traditionnel. La Maison Blanche, sous Trump, pousse pour une adoption rapide, mais fait face à des défis politiques, notamment sur les conflits d’intérêts des responsables gouvernementaux. Si la loi est adoptée, elle pourrait déclencher l’entrée de billions de dollars de capitaux institutionnels (fonds de pension, assureurs) et aligner les standards américains avec le règlement européen MiCA, renforçant la compétitivité mondiale des États-Unis. Son rejet profiterait aux places financières concurrentes comme l’UE, Hong Kong ou Singapour, et retarderait considérablement l’intégration des cryptomonnaies dans le système financier traditionnel. La conformité réglementaire devient l’avantage compétitif décisif pour l’avenir.

marsbitIl y a 10 h

Le projet de loi CLARITY atteint un moment charnière : la cryptomonnaie américaine à un carrefour réglementaire

marsbitIl y a 10 h

Trading

Spot
Futures

Articles tendance

Qu'est ce que $S$

Comprendre SPERO : Un aperçu complet Introduction à SPERO Alors que le paysage de l'innovation continue d'évoluer, l'émergence des technologies web3 et des projets de cryptomonnaie joue un rôle central dans la façon dont se dessine l'avenir numérique. Un projet qui a attiré l'attention dans ce domaine dynamique est SPERO, désigné comme SPERO,$$s$. Cet article vise à rassembler et à présenter des informations détaillées sur SPERO, afin d'aider les passionnés et les investisseurs à comprendre ses fondations, ses objectifs et ses innovations dans les domaines du web3 et de la crypto. Qu'est-ce que SPERO,$$s$ ? SPERO,$$s$ est un projet unique dans l'espace crypto qui cherche à tirer parti des principes de décentralisation et de la technologie blockchain pour créer un écosystème qui favorise l'engagement, l'utilité et l'inclusion financière. Le projet est conçu pour faciliter les interactions entre pairs de nouvelles manières, offrant aux utilisateurs des solutions et des services financiers innovants. Au cœur de SPERO,$$s$, l'objectif est d'autonomiser les individus en fournissant des outils et des plateformes qui améliorent l'expérience utilisateur dans l'espace des cryptomonnaies. Cela inclut la possibilité de méthodes de transaction plus flexibles, la promotion d'initiatives dirigées par la communauté et la création de voies pour des opportunités financières via des applications décentralisées (dApps). La vision sous-jacente de SPERO,$$s$ tourne autour de l'inclusivité, visant à combler les lacunes au sein de la finance traditionnelle tout en exploitant les avantages de la technologie blockchain. Qui est le créateur de SPERO,$$s$ ? L'identité du créateur de SPERO,$$s$ reste quelque peu obscure, car il existe peu de ressources publiques fournissant des informations détaillées sur son ou ses fondateurs. Ce manque de transparence peut découler de l'engagement du projet envers la décentralisation—une éthique que de nombreux projets web3 partagent, privilégiant les contributions collectives plutôt que la reconnaissance individuelle. En centrant les discussions autour de la communauté et de ses objectifs collectifs, SPERO,$$s$ incarne l'essence de l'autonomisation sans désigner des individus spécifiques. Ainsi, comprendre l'éthique et la mission de SPERO reste plus important que d'identifier un créateur unique. Qui sont les investisseurs de SPERO,$$s$ ? SPERO,$$s$ est soutenu par une diversité d'investisseurs allant des capital-risqueurs aux investisseurs providentiels dédiés à favoriser l'innovation dans le secteur crypto. L'objectif de ces investisseurs s'aligne généralement avec la mission de SPERO—priorisant les projets qui promettent des avancées technologiques sociétales, l'inclusivité financière et la gouvernance décentralisée. Ces fondations d'investisseurs s'intéressent généralement à des projets qui non seulement offrent des produits innovants, mais qui contribuent également positivement à la communauté blockchain et à ses écosystèmes. Le soutien de ces investisseurs renforce SPERO,$$s$ en tant que concurrent notable dans le domaine en rapide évolution des projets crypto. Comment fonctionne SPERO,$$s$ ? SPERO,$$s$ utilise un cadre multifacette qui le distingue des projets de cryptomonnaie conventionnels. Voici quelques-unes des caractéristiques clés qui soulignent son unicité et son innovation : Gouvernance décentralisée : SPERO,$$s$ intègre des modèles de gouvernance décentralisée, permettant aux utilisateurs de participer activement aux processus de décision concernant l'avenir du projet. Cette approche favorise un sentiment de propriété et de responsabilité parmi les membres de la communauté. Utilité du token : SPERO,$$s$ utilise son propre token de cryptomonnaie, conçu pour servir diverses fonctions au sein de l'écosystème. Ces tokens permettent des transactions, des récompenses et la facilitation des services offerts sur la plateforme, améliorant ainsi l'engagement et l'utilité globaux. Architecture en couches : L'architecture technique de SPERO,$$s$ supporte la modularité et l'évolutivité, permettant une intégration fluide de fonctionnalités et d'applications supplémentaires à mesure que le projet évolue. Cette adaptabilité est primordiale pour maintenir la pertinence dans le paysage crypto en constante évolution. Engagement communautaire : Le projet met l'accent sur des initiatives dirigées par la communauté, utilisant des mécanismes qui incitent à la collaboration et aux retours d'expérience. En cultivant une communauté forte, SPERO,$$s$ peut mieux répondre aux besoins des utilisateurs et s'adapter aux tendances du marché. Accent sur l'inclusion : En proposant des frais de transaction bas et des interfaces conviviales, SPERO,$$s$ vise à attirer une base d'utilisateurs diversifiée, y compris des individus qui n'ont peut-être pas engagé auparavant dans l'espace crypto. Cet engagement envers l'inclusion s'aligne avec sa mission globale d'autonomisation par l'accessibilité. Chronologie de SPERO,$$s$ Comprendre l'histoire d'un projet fournit des aperçus cruciaux sur sa trajectoire de développement et ses jalons. Voici une chronologie suggérée cartographiant les événements significatifs dans l'évolution de SPERO,$$s$ : Phase de conceptualisation et d'idéation : Les idées initiales formant la base de SPERO,$$s$ ont été conçues, s'alignant étroitement avec les principes de décentralisation et de concentration sur la communauté au sein de l'industrie blockchain. Lancement du livre blanc du projet : Suite à la phase conceptuelle, un livre blanc complet détaillant la vision, les objectifs et l'infrastructure technologique de SPERO,$$s$ a été publié pour susciter l'intérêt et les retours de la communauté. Construction de la communauté et engagements précoces : Des efforts de sensibilisation actifs ont été entrepris pour construire une communauté d'adopteurs précoces et d'investisseurs potentiels, facilitant les discussions autour des objectifs du projet et recueillant du soutien. Événement de génération de tokens : SPERO,$$s$ a organisé un événement de génération de tokens (TGE) pour distribuer ses tokens natifs aux premiers soutiens et établir une liquidité initiale au sein de l'écosystème. Lancement de la première dApp : La première application décentralisée (dApp) associée à SPERO,$$s$ a été mise en ligne, permettant aux utilisateurs d'interagir avec les fonctionnalités principales de la plateforme. Développement continu et partenariats : Des mises à jour et des améliorations continues des offres du projet, y compris des partenariats stratégiques avec d'autres acteurs de l'espace blockchain, ont façonné SPERO,$$s$ en un acteur compétitif et évolutif sur le marché crypto. Conclusion SPERO,$$s$ se dresse comme un témoignage du potentiel du web3 et de la cryptomonnaie pour révolutionner les systèmes financiers et autonomiser les individus. Avec un engagement envers la gouvernance décentralisée, l'engagement communautaire et des fonctionnalités conçues de manière innovante, il ouvre la voie vers un paysage financier plus inclusif. Comme pour tout investissement dans l'espace crypto en rapide évolution, les investisseurs et utilisateurs potentiels sont encouragés à mener des recherches approfondies et à s'engager de manière réfléchie avec les développements en cours au sein de SPERO,$$s$. Le projet illustre l'esprit d'innovation de l'industrie crypto, invitant à une exploration plus approfondie de ses nombreuses possibilités. Bien que le parcours de SPERO,$$s$ soit encore en cours, ses principes fondamentaux pourraient en effet influencer l'avenir de nos interactions avec la technologie, la finance et entre nous dans des écosystèmes numériques interconnectés.

101 vues totalesPublié le 2024.12.17Mis à jour le 2024.12.17

Qu'est ce que $S$

Qu'est ce que AGENT S

Agent S : L'avenir de l'interaction autonome dans Web3 Introduction Dans le paysage en constante évolution de Web3 et des cryptomonnaies, les innovations redéfinissent constamment la manière dont les individus interagissent avec les plateformes numériques. Un projet pionnier, Agent S, promet de révolutionner l'interaction homme-machine grâce à son cadre agentique ouvert. En ouvrant la voie à des interactions autonomes, Agent S vise à simplifier des tâches complexes, offrant des applications transformantes dans l'intelligence artificielle (IA). Cette exploration détaillée plongera dans les subtilités du projet, ses caractéristiques uniques et les implications pour le domaine des cryptomonnaies. Qu'est-ce qu'Agent S ? Agent S se présente comme un cadre agentique ouvert révolutionnaire, spécifiquement conçu pour relever trois défis fondamentaux dans l'automatisation des tâches informatiques : Acquisition de connaissances spécifiques au domaine : Le cadre apprend intelligemment à partir de diverses sources de connaissances externes et d'expériences internes. Cette approche double lui permet de construire un riche répertoire de connaissances spécifiques au domaine, améliorant ainsi sa performance dans l'exécution des tâches. Planification sur de longs horizons de tâches : Agent S utilise une planification hiérarchique augmentée par l'expérience, une approche stratégique qui facilite la décomposition et l'exécution efficaces de tâches complexes. Cette fonctionnalité améliore considérablement sa capacité à gérer plusieurs sous-tâches de manière efficace et efficiente. Gestion d'interfaces dynamiques et non uniformes : Le projet introduit l'Interface Agent-Ordinateur (ACI), une solution innovante qui améliore l'interaction entre les agents et les utilisateurs. En utilisant des Modèles de Langage Multimodaux de Grande Taille (MLLMs), Agent S peut naviguer et manipuler sans effort diverses interfaces graphiques. Grâce à ces fonctionnalités pionnières, Agent S fournit un cadre robuste qui aborde les complexités impliquées dans l'automatisation de l'interaction humaine avec les machines, préparant le terrain pour d'innombrables applications en IA et au-delà. Qui est le créateur d'Agent S ? Bien que le concept d'Agent S soit fondamentalement innovant, des informations spécifiques sur son créateur restent insaisissables. Le créateur est actuellement inconnu, ce qui souligne soit le stade naissant du projet, soit le choix stratégique de garder les membres fondateurs sous le radar. Quoi qu'il en soit, l'accent reste mis sur les capacités et le potentiel du cadre. Qui sont les investisseurs d'Agent S ? Étant donné qu'Agent S est relativement nouveau dans l'écosystème cryptographique, des informations détaillées concernant ses investisseurs et soutiens financiers ne sont pas explicitement documentées. Le manque d'aperçus publiquement disponibles sur les fondations d'investissement ou les organisations soutenant le projet soulève des questions sur sa structure de financement et sa feuille de route de développement. Comprendre le soutien est crucial pour évaluer la durabilité du projet et son impact potentiel sur le marché. Comment fonctionne Agent S ? Au cœur d'Agent S se trouve une technologie de pointe qui lui permet de fonctionner efficacement dans divers environnements. Son modèle opérationnel est construit autour de plusieurs caractéristiques clés : Interaction homme-ordinateur semblable à l'humain : Le cadre offre une planification IA avancée, s'efforçant de rendre les interactions avec les ordinateurs plus intuitives. En imitant le comportement humain dans l'exécution des tâches, il promet d'élever l'expérience utilisateur. Mémoire narrative : Utilisée pour tirer parti des expériences de haut niveau, Agent S utilise la mémoire narrative pour suivre les historiques de tâches, améliorant ainsi ses processus de prise de décision. Mémoire épisodique : Cette fonctionnalité fournit aux utilisateurs un accompagnement étape par étape, permettant au cadre d'offrir un soutien contextuel au fur et à mesure que les tâches se déroulent. Support pour OpenACI : Avec la capacité de fonctionner localement, Agent S permet aux utilisateurs de garder le contrôle sur leurs interactions et flux de travail, s'alignant avec l'éthique décentralisée de Web3. Intégration facile avec des API externes : Sa polyvalence et sa compatibilité avec diverses plateformes IA garantissent qu'Agent S peut s'intégrer sans effort dans des écosystèmes technologiques existants, en faisant un choix attrayant pour les développeurs et les organisations. Ces fonctionnalités contribuent collectivement à la position unique d'Agent S dans l'espace crypto, alors qu'il automatise des tâches complexes en plusieurs étapes avec un minimum d'intervention humaine. À mesure que le projet évolue, ses applications potentielles dans Web3 pourraient redéfinir la manière dont les interactions numériques se déroulent. Chronologie d'Agent S Le développement et les jalons d'Agent S peuvent être encapsulés dans une chronologie qui met en évidence ses événements significatifs : 27 septembre 2024 : Le concept d'Agent S a été lancé dans un document de recherche complet intitulé “Un cadre agentique ouvert qui utilise les ordinateurs comme un humain”, présentant les bases du projet. 10 octobre 2024 : Le document de recherche a été rendu publiquement disponible sur arXiv, offrant une exploration approfondie du cadre et de son évaluation de performance basée sur le benchmark OSWorld. 12 octobre 2024 : Une présentation vidéo a été publiée, fournissant un aperçu visuel des capacités et des caractéristiques d'Agent S, engageant davantage les utilisateurs et investisseurs potentiels. Ces jalons dans la chronologie illustrent non seulement les progrès d'Agent S, mais indiquent également son engagement envers la transparence et l'engagement communautaire. Points clés sur Agent S Alors que le cadre Agent S continue d'évoluer, plusieurs attributs clés se distinguent, soulignant sa nature innovante et son potentiel : Cadre innovant : Conçu pour offrir une utilisation intuitive des ordinateurs semblable à l'interaction humaine, Agent S propose une approche nouvelle de l'automatisation des tâches. Interaction autonome : La capacité d'interagir de manière autonome avec les ordinateurs via une interface graphique signifie un bond vers des solutions informatiques plus intelligentes et efficaces. Automatisation des tâches complexes : Avec sa méthodologie robuste, il peut automatiser des tâches complexes en plusieurs étapes, rendant les processus plus rapides et moins sujets aux erreurs. Amélioration continue : Les mécanismes d'apprentissage permettent à Agent S de s'améliorer grâce à ses expériences passées, améliorant continuellement sa performance et son efficacité. Polyvalence : Son adaptabilité à travers différents environnements d'exploitation comme OSWorld et WindowsAgentArena garantit qu'il peut servir un large éventail d'applications. Alors qu'Agent S se positionne dans le paysage Web3 et crypto, son potentiel à améliorer les capacités d'interaction et à automatiser les processus représente une avancée significative dans les technologies IA. Grâce à son cadre innovant, Agent S incarne l'avenir des interactions numériques, promettant une expérience plus fluide et efficace pour les utilisateurs à travers divers secteurs. Conclusion Agent S représente un saut audacieux en avant dans le mariage de l'IA et de Web3, avec la capacité de redéfinir notre interaction avec la technologie. Bien qu'il soit encore à ses débuts, les possibilités de son application sont vastes et convaincantes. Grâce à son cadre complet abordant des défis critiques, Agent S vise à mettre les interactions autonomes au premier plan de l'expérience numérique. À mesure que nous plongeons plus profondément dans les domaines des cryptomonnaies et de la décentralisation, des projets comme Agent S joueront sans aucun doute un rôle crucial dans la façon dont la technologie et la collaboration homme-machine évolueront à l'avenir.

749 vues totalesPublié le 2025.01.14Mis à jour le 2025.01.14

Qu'est ce que AGENT S

Comment acheter S

Bienvenue sur HTX.com ! Nous vous permettons d'acheter Sonic (S) de manière simple et pratique. Suivez notre guide étape par étape pour commencer votre parcours crypto.Étape 1 : Création de votre compte HTXUtilisez votre adresse e-mail ou votre numéro de téléphone pour ouvrir un compte sur HTX gratuitement. L'inscription se fait en toute simplicité et débloque toutes les fonctionnalités.Créer mon compteÉtape 2 : Choix du mode de paiement (rubrique Acheter des cryptosCarte de crédit/débit : utilisez votre carte Visa ou Mastercard pour acheter instantanément Sonic (S).Solde :utilisez les fonds du solde de votre compte HTX pour trader en toute simplicité.Prestataire tiers :pour accroître la commodité d'utilisation, nous avons ajouté des modes de paiement populaires tels que Google Pay et Apple Pay.P2P :tradez directement avec d'autres utilisateurs sur HTX.OTC (de gré à gré) : nous offrons des services personnalisés et des taux de change compétitifs aux traders.Étape 3 : stockage de vos Sonic (S)Après avoir acheté vos Sonic (S), stockez-les sur votre compte HTX. Vous pouvez également les envoyer ailleurs via un transfert sur la blockchain ou les utiliser pour trader d'autres cryptos.Étape 4 : tradez des Sonic (S)Tradez facilement Sonic (S) sur le marché Spot de HTX. Il vous suffit d'accéder à votre compte, de sélectionner la paire de trading, d'exécuter vos trades et de les suivre en temps réel. Nous offrons une expérience conviviale aux débutants comme aux traders chevronnés.

1.3k vues totalesPublié le 2025.01.15Mis à jour le 2025.03.21

Comment acheter S

Discussions

Bienvenue dans la Communauté HTX. Ici, vous pouvez vous tenir informé(e) des derniers développements de la plateforme et accéder à des analyses de marché professionnelles. Les opinions des utilisateurs sur le prix de S (S) sont présentées ci-dessous.

活动图片