Original | Odaily星球日报(@OdailyChina)
Auteur | DingDang(@XiaMiPP)
La star montante OpenClaw commence à soutenir l'IA privée, et les « investisseurs désespérés de la cryptomonnaie » semblent avoir trouvé une nouvelle direction de spéculation.
C'est précisément dans ce contexte narratif qu'un ensemble de projets liés au calcul confidentiel et aux infrastructures d'agents IA commence à revenir dans le champ de vision du marché. Odaily星球日报 a constaté que plusieurs projets sont déjà devenus des bénéficiaires potentiels pendant cette période de montée en puissance des discussions.
VVV(#133)
Venice est une plateforme de génération IA axée sur l'absence de censure et la confidentialité, se positionnant comme une version décentralisée de ChatGPT. Le point de départ de l'engouement autour de l'IA privée provient justement de Venice. En effet, OpenClaw avait mis en avant Venice dans sa documentation officielle, pour le retirer précipitamment dans les 24 heures. Bien que la recommandation ait pu être retirée, cette manœuvre a attiré l'attention de nombreuses personnes sur Venice et ses caractéristiques prioritaires en matière de vie privée.
Contrairement à la plupart des projets d'IA, le récit central de Venice n'est pas la capacité du modèle IA, mais la confidentialité elle-même. Dans un contexte où les principales plateformes d'IA renforcent progressivement la censure des contenus, et où les controverses sur les fuites de données d'IA et l'entraînement des modèles s'accumulent, ce positionnement de produit « sans enregistrement, sans censure » touche précisément les valeurs les plus sensibles de la communauté crypto.
À une époque où la tendance des agents IA se développe rapidement, Venice bénéficie parfaitement de ce « dividende de l'époque ». Coïncidence plus forte encore, l'équipe du projet Venice réduit activement l'offre de jetons VVV, diminuant ainsi l'inflation. Une demande accrue rencontre une offre réduite, renforçant encore les anticipations de rétroaction positive pour le jeton VVV.
Lecture de référence : « OpenClaw soutient Venice.ai, le jeton VVV bondit de plus de 500 % en un mois »
NEAR(#43)
Near Protocol, cet ancien projet de blockchain de layer 1 connu pour ses hautes performances, mène également une lutte pour sa survie face à la vague de l'IA. Il ne se contente plus d'être un « L1 traditionnel » recherchant le TPS et les faibles frais de gas, mais déplace progressivement le centre de son récit vers la couche d'exécution et l'infrastructure de règlement à l'ère des agents IA, tentant de trouver une nouvelle narration de croissance dans ce nouveau cycle technologique.
Dès 2025, il a vigoureusement promu le système NEAR Intents (système d'intentions). Ce système permet aux utilisateurs ou aux agents IA d'exprimer simplement le « résultat final souhaité », l'arrière-plan exécutant automatiquement des opérations complexes sur 35+ blockchains, sans avoir besoin de bridge manuel, de changer de portefeuille ou de gérer le routage.
Le 25 février 2026, NEAR a officiellement amélioré ce système d'intentions en lançant Confidential Intents. Cette version intègre des capacités de calcul confidentiel dans le cadre d'exécution d'intentions existant, en utilisant le mécanisme de sharding confidentiel de Near combiné à un environnement d'exécution de confiance (TEE), permettant de masquer les détails clés pendant l'exécution des transactions cross-chain, tels que le chemin d'échange, l'ampleur de la transaction ou les stratégies spécifiques. Cependant, il n'applique pas non plus une confidentialité obligatoire à toutes les transactions comme le font Zcash ou Monero, mais ajoute plutôt une couche de protection optionnelle de confidentialité à l'exécution des intentions. Son objectif principal n'est pas d'anonymiser les transactions, mais de prévenir les comportements d'arbitrage on-chain comme le MEV, le front-running et les sandwich attacks, rendant ainsi l'exécution des transactions plus sûre.
À l'avenir, les agents IA pourraient devenir les principaux « utilisateurs » de la blockchain. Ils pourraient détenir des actifs de manière autonome, effectuer des transactions cross-chain, exécuter des stratégies, et même se coordonner entre eux. Dans un tel scénario, la blockchain doit non seulement traiter des transactions à haute fréquence, mais aussi fournir des capacités d'exécution vérifiable, de calcul confidentiel et de coordination cross-chain.
Le positionnement actuel de Near s'articule précisément autour de cette vision. Il tente de construire un réseau ouvert capable à la fois de supporter l'exécution automatique de tâches complexes par des agents IA et de garantir un processus vérifiable et sécurisé. Dans le contexte de l'impact continu de la vague de l'IA, cette transformation peut être considérée à la fois comme une tentative active d'embrasser une nouvelle narration et comme une auto-reconstitution d'une ancienne blockchain de layer 1 dans un nouveau cycle.
SAHARA(#295)
L'objectif principal de Sahara AI est de construire un écosystème IA décentralisé, transparent et sécurisé, rendant le processus de développement, d'entraînement, de déploiement et de commercialisation de l'IA plus équitable et digne de confiance. Le projet s'efforce de résoudre les problèmes auxquels l'industrie de l'IA est actuellement confrontée, tels que la confidentialité des données, les biais algorithmiques et l'ambiguïté de la propriété des modèles.
L'émergence des agents IA soulève une nouvelle question : à qui appartiennent les données, modèles et capacités utilisés par ces Agents ? Dans la structure industrielle actuelle de l'IA, cette question n'est en réalité bien résolue. Les données nécessaires à l'entraînement des modèles proviennent souvent d'un grand nombre de contributeurs dispersés, mais les bénéfices finaux sont hautement concentrés entre les mains d'un petit nombre de entreprises d'IA ; les développeurs de modèles, même s'ils ont des capacités techniques, sont souvent contraints de s'appuyer sur l'écosystème des plateformes ; et à mesure que les agents IA commencent à appeler de manière autonome des modèles, des données et des outils, toute la chaîne de valeur devient plus complexe. Sans un mécanisme clair d'attribution des droits et de partage des bénéfices, l'économie future de l'IA pourrait bien répéter le schéma du Web2 : les données appartiennent aux utilisateurs, mais la valeur est accaparée par les plateformes.
Sahara AI tente précisément d'établir de nouvelles règles à cet égard. Son système de sécurité ClawGuard fournit des garde-fous sécurisés vérifiables pour les agents IA, garantissant leur fonctionnement sécurisé dans des règles prédéfinies, tandis que la plateforme de services de données (DSP) permet aux utilisateurs de recevoir des incitations sous forme de jetons en annotant et en contribuant aux données d'entraînement IA, formant progressivement un marché de données décentralisé. Dans ce mécanisme, les contributeurs de données peuvent non seulement participer au processus d'entraînement des modèles IA, mais aussi obtenir des revenus continus lorsque les données sont utilisées, tandis que la plateforme assure la qualité des données et la protection de la vie privée grâce à des mécanismes on-chain.
PHA(#601)
Phala Network est une plateforme de contrats intelligents privés construite sur Substrate, visant à fournir des services de calcul avec protection vérifiable de la vie privée pour les applications Web3. Pour comprendre pourquoi Phala bénéficie de l'engouement pour les agents IA, il faut d'abord répondre à une question plus fondamentale : sur quelles infrastructures repose réellement le fonctionnement d'un agent IA ?
Si l'on décompose l'écosystème actuel des agents, sa pile technologique peut être grossièrement divisée en plusieurs couches. Au sommet se trouve la couche modèle, c'est-à-dire les différents grands modèles de langage ou modèles d'inférence, tels qu'OpenAI, Claude et une série de modèles open source ; en dessous se trouve la couche framework d'agents, incluant des outils comme LangChain, AutoGPT, OpenClaw, etc., responsables d'organiser les tâches, d'ordonnancer les modèles et d'appeler des outils externes ; vient ensuite la couche environnement d'exécution, c'est-à-dire l'endroit où l'agent exécute réellement le code, appelle les API, exécute des tâches automatisées ; il existe également une couche paiement et identité, pour gérer les paiements, l'identité et le système de réputation entre agents ; et tout en bas, se trouve la couche puissance de calcul et confidentialité, responsable de garantir que le processus de calcul est digne de confiance et que les données ne sont pas divulguées.
De ce point de vue, la position de Phala chevauche précisément la couche environnement d'exécution et la couche puissance de calcul/confidentialité. Sa technologie centrale – un réseau de calcul confidentiel basé sur TEE (Trusted Execution Environment) – permet aux agents IA d'exécuter des programmes en off-chain de manière sécurisée, tout en garantissant que le processus de calcul est vérifiable et que les données ne peuvent être espionnées de l'extérieur. Ce point est particulièrement crucial dans l'économie des agents.
En termes de déploiement concret de l'écosystème, Phala a déjà commencé à interagir avec des projets d'agents IA. Par exemple, Phala a collaboré avec ai16z pour construire un composant TEE pour son framework multi-agents Eliza, intégrant directement la technologie d'exécution de confiance dans l'environnement d'exécution des agents ; parallèlement, certains projets d'émission de jetons d'agents IA (comme aiPool) ont également adopté la technologie TEE de Phala pour gérer les clés privées et les actifs on-chain.
À l'avenir, à mesure que les agents IA évolueront d'« outils de discussion » vers des entités numériques capables de détenir des fonds, d'exécuter des transactions et même d'opérer des protocoles, les environnements d'exécution sécurisés deviendront progressivement une couche d'infrastructure indispensable à tout l'écosystème des agents, et Phala tente d'occuper cette position.
Conclusion
En examinant ces projets, une découverte intéressante est que : le moment où ces jetons ont vraiment commencé à augmenter précède en réalité l'événement de recommandation de ces derniers jours. Autrement dit, avant que Venice ne mette l'« IA privée » sur le devant de la scène, une partie des capitaux sur le marché avait déjà remarqué cette direction, mais il manquait alors un déclencheur narratif suffisamment clair. L'événement de recommandation d'OpenClaw n'a été que l'étincelle qui a attisé l'attention.
En réalité, que ce soit a16z ou Delphi Digital, leurs rapports annuels de recherche et d'investissement pour 2025 ont tous deux classé la confidentialité et l'IA comme des secteurs clés à surveiller en 2026. Seulement, lorsque ces jugements macroéconomiques se concrétisent réellement sur le marché, il faut souvent un événement spécifique pour déclencher un consensus. Et début 2026, la confidentialité et l'IA se sont présentées à nous de cette manière combinée.
Quant à savoir si cela deviendra la prochaine tendance à long terme ou simplement une autre spéculation thématique de courte durée, il faudra probablement du temps pour avoir la réponse.






