Auteur : Lao Bai
Titre original : Crypto × AI vu du marché primaire : Une expérience d'illusion tokenisée
Cela fait deux ans que V a de nouveau tweeté, et je profite de l'occasion pour parler du rapport de recherche d'il y a deux ans, la date étant exactement la même, le 10 février. (Lecture connexe : ABCDE : Cartographie d'AI+Crypto depuis la perspective du marché primaire)
Il y a deux ans, V神 (Vitalik Buterin) avait en fait implicitement exprimé qu'il n'était pas très optimiste quant aux diverses tendances populaires de l'époque sur Crypto Helps AI. Les trois piliers populaires dans le cercle étaient alors la tokenisation de la puissance de calcul, la tokenisation des données et la tokenisation des modèles. Mon rapport de recherche d'il y a deux ans parlait principalement de ces trois piliers et de certaines observations et interrogations observées sur le marché primaire. Du point de vue de V神, il préférait encore AI Helps Crypto.
Les quelques exemples qu'il avait donnés à l'époque étaient respectivement :
-
L'IA en tant que participant dans le jeu ;
-
L'IA en tant qu'interface de jeu ;
-
L'IA en tant que règle du jeu ;
-
L'IA en tant qu'objectif du jeu ;
Au cours des deux dernières années, nous avons fait de nombreux essais sur Crypto Helps AI, mais les résultats ont été maigres. De nombreux secteurs et projets se résument à – lancer un jeton et c'est tout, sans PMF (Product-Market Fit) commercial réel, ce que j'appelle une « illusion de tokenisation ».
1. Tokenisation de la puissance de calcul – La plupart ne peuvent pas fournir un SLA de niveau commercial, sont instables, tombent fréquemment en panne. Ne peuvent traiter que des tâches d'inférence de modèles simples et de petite/moyenne taille, servent mostly des marchés de niche, les revenus ne sont pas liés au jeton......
2. Tokenisation des données – Friction importante côté offre (particuliers), faible volonté, incertitude élevée. Côté demande (entreprises), ce dont elles ont besoin, ce sont des fournisseurs de données professionnels, structurés, avec des dépendances contextuelles, une confiance et une responsabilité légale. Les projets Web3 de type DAO ont du mal à fournir cela.
3. Tokenisation des modèles – Un modèle est par nature un actif processuel, non rare, reproductible, affinable, se dépréciant rapidement, et non un actif final. Hugging Face est lui-même une plateforme de collaboration et de diffusion, plus proche de GitHub for ML, que de l'App Store for models. Ainsi, les tentatives de « Hugging Face décentralisé » pour tokeniser les modèles ont基本上 (essentiellement) toutes échoué.
De plus, ces deux dernières années, nous avons essayé diverses formes d'« inférence vérifiable », c'est aussi une histoire typique de chercher une application à une solution. Du ZKML à l'OPML en passant par la théorie des jeux, etc., et même EigenLayer a fait pivoter son récit du Restaking vers celui de l'IA Vérifiable.
Mais c'est基本 similaire à ce qui s'est passé dans le secteur du Restaking – peu d'AVS sont prêts à payer continuellement pour une sécurité vérifiable supplémentaire.
De même, l'inférence vérifiable vérifie基本 des « choses dont personne n'a vraiment besoin d'être vérifié », le modèle de menace côté demande est extrêmement flou – contre qui se protège-t-on exactement ?
Les erreurs de sortie de l'IA (problèmes de capacité du modèle) sont bien plus nombreuses que les sorties d'IA modifiées malicieusement (problèmes adversariaux). Les divers incidents de sécurité sur OpenClaw et Moltbook récemment l'ont montré, les vrais problèmes venaient de :
-
Stratégie mal conçue
-
Trop de permissions accordées
-
Limites mal définies
-
Interactions inattendues entre les outils combinés
-
...
Il n'existe presque pas ce clou imaginaire de « modèle modifié » ou de « processus d'inférence réécrit malicieusement ».
L'année dernière, j'ai posté cette image, je ne sais pas si des anciens s'en souviennent.
Les idées avancées par V神 cette fois sont明显 plus matures que celles d'il y a deux ans, et c'est aussi grâce aux progrès réalisés dans divers domaines comme la confidentialité, X402, ERC8004, les marchés prédictifs, etc.
On peut voir que les quatre quadrants qu'il propose cette fois, la moitié appartient à AI Helps Crypto, l'autre moitié à Crypto Helps AI, et non plus comme il y a deux ans où il penchait clairement vers le premier.
En haut à gauche et en bas à gauche – Utiliser la décentralisation et la transparence d'Ethereum pour résoudre les problèmes de confiance et de collaboration économique de l'IA
1. Permettre des interactions IA sans confiance et privées (Infrastructure + Survie) : Utiliser des technologies comme ZK, FHE, etc., pour garantir la confidentialité et la vérifiabilité des interactions IA (je me demande si l'inférence vérifiable dont je parlais plus tôt compte).
2. Ethereum comme couche économique pour l'IA (Infrastructure + Prospérité) : Permettre aux agents IA (Agents) d'effectuer des paiements économiques via Ethereum, de recruter d'autres robots, de payer des cautions ou d'établir des systèmes de réputation, construisant ainsi une architecture IA décentralisée plutôt que limitée à une plateforme unique de géant.
En haut à droite et en bas à droite – Utiliser les capacités intelligentes de l'IA pour optimiser l'expérience utilisateur, l'efficacité et la gouvernance de l'écosystème crypto :
3. Vision Cypherpunk mountain man avec des LLM locaux (Impact + Survie) : L'IA comme « bouclier » et interface de l'utilisateur. Par exemple, un LLM local (grand modèle de langage) peut auditer automatiquement les contrats intelligents, vérifier les transactions, réduire la dépendance aux interfaces frontales centralisées, et garantir la souveraineté numérique individuelle.
4. Faire de bien meilleurs marchés et une meilleure gouvernance une réalité (Impact + Prospérité) : L'IA participant profondément aux marchés prédictifs (Prediction Markets) et à la gouvernance des DAO. L'IA peut être un participant efficace, en traitant massivement l'information pour amplifier le jugement humain, résolvant ainsi divers problèmes de marché et de gouvernance comme le manque d'attention humaine, le coût décisionnel trop élevé, la surcharge informationnelle, l'apathie votante, etc.
Auparavant, nous voulions follement que Crypto Help AI, tandis que V神 se tenait de l'autre côté. Maintenant, nous nous rencontrons enfin au milieu, sauf qu'à vue de nez, cela n'a pas grand-chose à voir avec diverses tokenisations XX, ou avec une quelconque AI Layer1. J'espère que dans deux ans, en regardant ce post d'aujourd'hui, il y aura de nouvelles directions et des surprises.
Twitter:https://twitter.com/BitpushNewsCN
Groupe de discussion TG de Bitpush:https://t.me/BitPushCommunity
Abonnement TG de Bitpush: https://t.me/bitpush









