Source originale : a16z crypto
Compilation originale : AididiaoJP, Foresight News
Les agents IA évoluent à un rythme bien supérieur à celui des autres infrastructures, passant rapidement d'outils d'assistance à de véritables acteurs économiques.
Bien que les agents soient désormais capables d'exécuter des tâches et des transactions, ils manquent encore d'une manière standardisée et interenvironnement de prouver « qui je suis », « ce que je suis autorisé à faire » et « comment je dois être payé ». L'identité n'est pas portable, les paiements ne sont pas programmable par défaut, la collaboration reste en silos.
La blockchain résout ces problèmes au niveau de l'infrastructure. Le grand livre public fournit une attestation vérifiable par quiconque pour chaque transaction ; le portefeuille confère à l'agent une identité portable ; les stablecoins deviennent une autre couche de règlement. Ce ne sont pas des concepts futurs, ils sont disponibles aujourd'hui, aidant les agents à fonctionner de manière sans permission en tant que véritables acteurs économiques.
Fournir une identité aux non-humains
Le goulot d'étranglement de l'économie des agents n'est plus l'intelligence, mais l'identité.
Rien que dans le secteur des services financiers, le nombre d'identités non humaines (systèmes de trading automatisés, moteurs de risque, modèles de fraude) est déjà environ 100 fois supérieur à celui des employés humains. Avec le déploiement à grande échelle des cadres d'agents modernes (LLM avec appel d'outils, flux de travail autonomes, orchestration multi-agents), cette proportion continuera d'augmenter dans tous les secteurs.
Pourtant, ces agents sont en réalité toujours « non bancarisés ». Ils peuvent interagir avec le système financier, mais pas de manière portable, vérifiable et digne de confiance par défaut. Ils manquent d'une manière standardisée de prouver leurs autorisations, d'opérer de manière indépendante sur plusieurs plateformes, ou d'être responsables de leurs actions.
Il manque une couche d'identité universelle – l'équivalent du SSL pour les agents, permettant une collaboration standardisée entre les plateformes. Les solutions actuelles sont encore fragmentées : d'un côté, des piles verticalement intégrées, prioritaires aux fiat ; de l'autre, des standards ouverts natifs crypto (comme x402 et les propositions émergentes d'identité d'agent) ; et enfin, des extensions de cadres de développement tentant de pontifier les identités de couche applicative (comme MCP, Model Context Protocol).
Il n'existe toujours pas de manière largement adoptée et interopérable pour qu'un agent puisse prouver à un autre : qui il représente, ce qu'il est autorisé à faire, et comment il doit être payé.
C'est l'idée centrale de KYA (Know Your Agent). Tout comme les humains dépendent des historiques de crédit et du KYC (Know Your Customer), les agents auront besoin d'identifiants cryptographiquement signés, les liant à un principal, des autorisations, des contraintes et une réputation.
La blockchain fournit une couche de coordination neutre : une identité portable, des portefeuilles programmables, et des preuves vérifiables pouvant être analysées dans les applications de chat, les API et les marchés.
Nous voyons déjà des implémentations précoces apparaître : des registres d'agents on-chain, des agents natifs utilisant des portefeuilles USDC, des standards ERC pour les « agents à confiance minimale », et des boîtes à outils pour développeurs combinant identité, paiements embarqués et contrôles de fraude.
Mais en l'absence d'un standard d'identité universel, les commerçants continueront de bloquer les agents au niveau du pare-feu.
Gouverner les systèmes exécutés par l'IA
Les agents commencent à prendre le contrôle de systèmes réels, ce qui soulève une nouvelle question : qui détient réellement le contrôle ? Imaginez une communauté ou une entreprise où des systèmes IA coordonnent des ressources critiques (qu'il s'agisse d'allouer du capital ou de gérer une chaîne d'approvisionnement).
Même si les gens peuvent voter sur les changements de politique, si la couche IA sous-jacente est contrôlée par un seul fournisseur, capable de pousser des mises à jour de modèles, d'ajuster des contraintes ou de passer outre des décisions, alors cette autorité est très fragile. La couche de gouvernance formelle peut être décentralisée, mais la couche opérationnelle reste centralisée – celui qui contrôle le modèle contrôle finalement le résultat.
Lorsque les agents assument des rôles de gouvernance, ils introduisent une nouvelle couche de dépendance. En théorie, cela pourrait rendre la démocratie directe plus réalisable : chacun pourrait posséder un agent IA l'aidant à comprendre des propositions complexes, modéliser des compromis et voter selon des préférences établies.
Mais cette vision ne peut se réaliser que si l'agent est véritablement responsable devant la personne qu'il représente, portable entre les fournisseurs, et techniquement contraint de suivre les instructions humaines. Sinon, vous obtenez un système apparemment démocratique mais en réalité manipulé par des comportements de modèles opaques que personne ne contrôle vraiment.
Si la réalité actuelle est que les agents sont principalement construits sur quelques modèles de base, nous avons besoin de moyens pour prouver qu'un agent agit dans l'intérêt de l'utilisateur, et non dans celui de la société du modèle.
Cela nécessitera probablement des garanties cryptographiques à plusieurs niveaux :
(1) Les données d'entraînement, le fine-tuning ou l'apprentissage par renforcement sur lesquels l'instance du modèle est basée ;
(2) Les invites et instructions exactes que suit l'agent spécifique ;
(3) Son historique de comportement réel dans le monde réel ;
(4) Des garanties crédibles que le fournisseur ne peut pas modifier ses instructions après déploiement ou le réentraîner à l'insu de l'utilisateur. Sans ces garanties, la gouvernance par agents dégénère en gouvernance par ceux qui contrôlent les poids des modèles.
C'est là que la cryptographie est particulièrement utile. Si les décisions collectives sont enregistrées on-chain et exécutées automatiquement, les systèmes IA peuvent être contraints de suivre strictement les résultats vérifiés. Si les agents possèdent une identité cryptographique et des journaux d'exécution transparents, les gens peuvent vérifier si leurs mandataires agissent dans les limites.
Si la couche IA est détenue par les utilisateurs et portable, et non verrouillée sur une seule plateforme, alors aucune entreprise ne peut changer les règles via une simple mise à jour de modèle.
En fin de compte, gouverner les systèmes IA est fondamentalement un défi d'infrastructure, et non de politique. La véritable autorité dépend de la construction de garanties exécutoires dans le système lui-même.
Combler le vide des systèmes de paiement traditionnels pour les activités natives de l'IA
Les agents IA commencent à acheter divers services – scraping web, sessions de navigation, génération d'images – les stablecoins deviennent la couche de règlement alternative pour ces transactions. Simultanément, une nouvelle classe de marchés orientés agents est en train de se former.
Par exemple, le marché MPP de Stripe et Tempo agrège plus de 60 services conçus spécifiquement pour les agents IA. La première semaine de lancement, il a traité plus de 34 000 transactions, avec des frais aussi bas que 0,003 $, les stablecoins étant l'un des modes de paiement par défaut.
La différence réside dans la façon dont ces services sont accessibles : ils n'ont pas de page de paiement. L'agent lit le schéma, envoie une requête, paye et reçoit la sortie, le tout en un seul échange.
Cela représente une nouvelle classe de commerçants sans identité : juste un serveur, un ensemble de points de terminaison, et un prix par appel. Pas d'interface frontale, pas d'équipe commerciale.
Les rails de paiement permettant cela sont opérationnels. Le x402 de Coinbase et MPP adoptent des approches différentes, mais intègrent tous deux le paiement directement dans la requête HTTP. Visa étend également ses rails de paiement par carte dans une direction similaire, offrant un outil CLI permettant aux développeurs de dépenser depuis le terminal, le commerçant recevant instantanément des stablecoins en backend.
Les données sont encore précoces. Après filtrage des activités non organiques comme le bourrage, x402 traite environ 1,6 million de dollars de paiements pilotés par des agents par mois, bien en deçà des 24 millions de dollars récemment rapportés par Bloomberg (citant les données de x402.org). Mais l'infrastructure périphérique se développe rapidement : Stripe, Cloudflare, Vercel et Google ont tous intégré x402 dans leurs plateformes.
Les outils pour développeurs représentent une opportunité majeure, car le « vibe coding » élargit le nombre de personnes capables de construire des logiciels. Des entreprises comme Merit Systems construisent des produits pour ce monde, comme AgentCash – un portefeuille CLI et un marché connectant MPP et x402. Ces produits permettent aux agents d'acheter les données, outils et capacités dont ils ont besoin en utilisant des stablecoins depuis un solde unique.
Par exemple, l'agent d'une équipe commerciale peut appeler un point de terminaison pour enrichir les informations sur les prospects en récupérant simultanément des données d'Apollo, Google Maps et Whitepages, le tout sans que l'utilisateur ne quitte la ligne de commande.
Ce commerce d'agent à agent tend à utiliser les rails de paiement cryptographiques (et les solutions émergentes basées sur les cartes), pour plusieurs raisons.
La première est le risque de souscription : Les processeurs de paiement traditionnels assument un risque commercial lors de l'intégration d'un marchand, et un marchand sans tête sans site web ou entité légale est difficile à assurer pour un processeur traditionnel.
La seconde est la programmabilité sans permission des stablecoins sur les réseaux ouverts : Tout développeur peut rendre un point de terminaison payant sans avoir à intégrer un processeur de paiement ou signer un accord commercial.
Nous avons déjà vu ce modèle. Chaque transformation de la forme commerciale crée une nouvelle classe de commerçants que les systèmes existants ont initialement du mal à servir. Les entreprises construisant cette infrastructure ne parient pas sur 1,6 million de dollars par mois, mais sur ce que ce nombre pourrait devenir lorsque les agents seront l'acheteur par défaut.
Re-prixer la confiance dans l'économie des agents
Au cours des 300 000 dernières années, la cognition humaine a été le goulot d'étranglement du progrès. Aujourd'hui, l'IA pousse le coût marginal de l'exécution vers zéro. Lorsqu'une ressource rare devient abondante, les contraintes se déplacent. Quand l'intelligence devient bon marché, qu'est-ce qui devient cher ? La réponse est la vérification.
Dans l'économie des agents, la vraie limite à l'échelle est notre capacité biologiquement limitée à auditer et à assurer les décisions des machines. Le débit des agents dépasse déjà largement la capacité de supervision humaine. Comme la supervision est coûteuse et que les échecs ont un effet retardé, le marché a tendance à sous-investir dans la supervision. Le « human-in-the-loop » devient rapidement une impossibilité physique.
Mais déployer des agents non vérifiés introduit des risques composites. Les systèmes optimisent impitoyablement les métriques « proxy » tout en déviant silencieusement de l'intention humaine, créant une apparence de productivité qui masque l'accumulation d'une dette IA massive. Pour confier l'économie en toute sécurité aux machines, la confiance ne peut plus reposer sur des vérifications manuelles – la confiance doit être codée en dur dans l'architecture du système elle-même.
Lorsque n'importe qui peut générer du contenu gratuitement, le plus important est la source vérifiable – savoir d'où cela vient, et si vous pouvez lui faire confiance. La blockchain, les attestations on-chain et les systèmes d'identité numérique décentralisés, sont en train de changer les limites économiques de ce qui peut être déployé en toute sécurité. Vous ne traitez plus l'IA comme une boîte noire, mais vous obtenez un historique clair et auditable.
À mesure que davantage d'agents IA commencent à échanger entre eux, les rails de règlement et les preuves de provenance commencent à fusionner.
Les systèmes traitant des fonds (comme les stablecoins et les smart contracts) peuvent également porter des justificatifs cryptographiques montrant qui a fait quoi, et qui est responsable en cas de problème.
L'avantage comparatif humain migrera vers le haut : Passer de la détection de petites erreurs, à la définition d'une direction stratégique, et à l'assumption de responsabilité en cas de problème. L'avantage durable appartiendra à ceux qui pourront certifier cryptographiquement leurs outputs, les assurer, et absorber la responsabilité en cas d'échec.
Mettre à l'échelle sans vérification est une dette qui s'accumule avec le temps.
Maintenir le contrôle de l'utilisateur
Pendant des décennies, de nouvelles couches d'abstraction ont défini la façon dont les utilisateurs interagissent avec la technologie. Les langages de programmation ont abstrait le code machine ; la ligne de commande a cédé la place à l'interface graphique, suivie par les applications mobiles et les API. Chaque transition a masqué plus de complexité sous-jacente, mais a toujours maintenu l'utilisateur fermement dans la boucle.
Dans le monde des agents, l'utilisateur spécifie le résultat et non l'action spécifique, le système décide lui-même comment y parvenir. L'agent abstrait non seulement l'exécution de la tâche, mais aussi qui l'exécute. L'utilisateur fixe les paramètres initiaux, puis recule, laissant le système fonctionner seul. Le rôle de l'utilisateur passe de l'interaction à la supervision ; à moins qu'il n'intervienne, l'état par défaut est « activé ».
À mesure que les utilisateurs délèguent plus de tâches aux agents, de nouveaux risques apparaissent : Des entrées floues peuvent amener l'agent à agir sur la base de fausses hypothèses à l'insu de l'utilisateur ; les échecs peuvent ne pas être signalés, empêchant un diagnostic clair ; une seule approbation peut déclencher un flux de travail en plusieurs étapes que personne n'avait anticipé.
C'est là que la cryptographie peut aider. La cryptographie a toujours visé à minimiser la confiance aveugle.
Alors que les utilisateurs confient plus de décisions aux logiciels, les systèmes d'agents rendent ce problème plus aigu et augmentent l'exigence de rigueur dans notre conception – en fixant des limites plus claires, en améliorant la visibilité et en appliquant des garanties plus solides sur les capacités du système.
Une nouvelle génération d'outils natifs cryptographiques émerge. Les cadres de délégation à portée limitée – par exemple le Delegation Toolkit de MetaMask, l'AgentKit et les portefeuilles d'agents de Coinbase, et l'AgentCash de Merit Systems – permettent aux utilisateurs de définir au niveau du smart contract ce que l'agent peut et ne peut pas faire. L'architecture basée sur l'intention (comme NEAR Intents, qui a traité plus de 15 milliards de dollars de volume d'échange DEX cumulé depuis le quatrième trimestre 2024) permet aux utilisateurs de simplement spécifier le résultat souhaité (par exemple « bridge des jetons et stake ») sans avoir à spécifier comment y parvenir.











