Rédigé par : a16z crypto
Compilé par : AididiaoJP, Foresight News
Les agents IA évoluent à un rythme bien supérieur à celui des autres infrastructures, passant rapidement d'outils d'assistance à de véritables acteurs économiques.
Bien qu'ils soient déjà capables d'exécuter des tâches et des transactions, les agents manquent encore d'une manière standardisée et interopérable de prouver « qui je suis », « ce que je suis autorisé à faire » et « comment je dois être payé ». L'identité n'est pas portable, les paiements ne sont pas encore programmables par défaut, et la collaboration reste cloisonnée.
La blockchain résout ces problèmes au niveau de l'infrastructure. Le grand livre public fournit une preuve vérifiable par quiconque pour chaque transaction ; les portefeuilles confèrent aux agents une identité portable ; les stablecoins constituent une autre couche de règlement. Il ne s'agit pas de concepts futurs, ils sont disponibles dès aujourd'hui, permettant aux agents de fonctionner de manière sans permission en tant que véritables entités économiques.
Fournir une identité aux non-humains
Le goulot d'étranglement de l'économie des agents n'est plus l'intelligence, mais l'identité.
Rien que dans le secteur des services financiers, le nombre d'identités non humaines (systèmes de trading automatisés, moteurs de risque, modèles de fraude) est environ 100 fois supérieur à celui des employés humains. Avec le déploiement à grande échelle des frameworks d'agents modernes (LLM avec appel d'outils, workflows autonomes, orchestration multi-agents), cette proportion continuera d'augmenter dans tous les secteurs.
Cependant, ces agents sont en réalité toujours « non bancarisés ». Ils peuvent interagir avec le système financier, mais pas de manière portable, vérifiable et digne de confiance par défaut. Ils n'ont pas de moyen standardisé de prouver leurs autorisations, d'opérer de manière indépendante sur différentes plateformes ou d'assumer la responsabilité de leurs actions.
Il manque une couche d'identité universelle – l'équivalent d'un SSL pour les agents, capable de standardiser la collaboration entre les plateformes. Les solutions actuelles restent fragmentées : d'un côté, des stacks verticalement intégrés, prioritaires aux fiat ; de l'autre, des standards ouverts cryptonatifs (comme x402 et les propositions émergentes d'identité d'agent) ; et enfin, des extensions de frameworks de développement tentant de relier les identités de la couche applicative (comme le MCP, Model Context Protocol).
Il n'existe toujours pas de manière largement adoptée et interopérable pour qu'un agent puisse prouver à un autre : qui il représente, ce qu'il est autorisé à faire, et comment il doit être payé.
C'est l'idée centrale du KYA (Know Your Agent). Tout comme les humains dépendent des historiques de crédit et du KYC (Know Your Customer), les agents auront besoin d'identifiants cryptographiquement signés, les liant à un principal, des autorisations, des contraintes et une réputation. La blockchain fournit une couche de coordination neutre : une identité portable, des portefeuilles programmables et des preuves vérifiables pouvant être analysées dans les applications de chat, les API et les marchés.
Nous voyons déjà émerger des implémentations précoces : des registres d'agents on-chain, des agents natifs utilisant des portefeuilles avec l'USDC, des standards ERC pour les « agents à confiance minimale », et des boîtes à outils pour développeurs combinant identité, paiements embarqués et contrôles de fraude.
Mais tant qu'un standard d'identité universel n'émergera pas, les commerçants continueront de bloquer les agents au niveau de leur pare-feu.
Gouverner les systèmes que l'IA exécute
Le fait que les agents commencent à prendre le contrôle de systèmes réels soulève une nouvelle question : qui détient réellement le contrôle ? Imaginez une communauté ou une entreprise où des systèmes d'IA coordonnent des ressources critiques (qu'il s'agisse d'allouer du capital ou de gérer la chaîne d'approvisionnement). Même si les gens peuvent voter sur les changements de politique, si la couche IA sous-jacente est contrôlée par un seul fournisseur, capable de pousser des mises à jour de modèles, d'ajuster des contraintes ou de passer outre des décisions, alors cette autorité est très fragile. La couche de gouvernance formelle peut être décentralisée, mais la couche opérationnelle reste centralisée – celui qui contrôle le modèle contrôle finalement le résultat.
Lorsque les agents assument des rôles de gouvernance, ils introduisent une nouvelle couche de dépendance. En théorie, cela pourrait rendre la démocratie directe plus réalisable : chacun pourrait avoir un agent IA l'aidant à comprendre des propositions complexes, à modéliser les compromis et à voter selon des préférences établies. Mais cette vision ne peut se réaliser que si les agents sont véritablement responsables devant les personnes qu'ils représentent, sont portables entre fournisseurs et sont techniquement contraints de suivre les instructions humaines. Sinon, vous obtenez un système apparemment démocratique en surface, mais en réalité manipulé par des comportements de modèles opaques que personne ne contrôle vraiment.
Si la réalité actuelle est que les agents sont principalement construits sur quelques modèles de base, nous avons besoin de moyens pour prouver qu'un agent agit dans l'intérêt de l'utilisateur, et non dans celui de la société de modèles. Cela nécessitera probablement des garanties cryptographiques à plusieurs niveaux : (1) les données d'entraînement, le fine-tuning ou l'apprentissage par renforcement sur lesquels l'instance du modèle est basée ; (2) l'invite et les instructions exactes que l'agent spécifique suit ; (3) son historique réel de comportement dans le monde réel ; (4) l'assurance crédible que le fournisseur ne peut pas modifier ses instructions après déploiement ou le réentraîner à l'insu de l'utilisateur. Sans ces garanties, la gouvernance par agent dégénère en une gouvernance par ceux qui contrôlent les poids des modèles.
C'est là que la cryptographie entre particulièrement en jeu. Si les décisions collectives sont enregistrées on-chain et exécutées automatiquement, les systèmes d'IA peuvent être contraints de suivre strictement les résultats vérifiés. Si les agents ont une identité cryptographique et des journaux d'exécution transparents, les gens peuvent vérifier si leurs mandataires agissent dans les limites. Si la couche IA est détenue par les utilisateurs et portable, et non verrouillée sur une seule plateforme, alors aucune entreprise ne peut changer les règles via une simple mise à jour de modèle.
En fin de compte, gouverner les systèmes d'IA est fondamentalement un défi d'infrastructure, et non un défi politique. La véritable autorité dépend de la construction de garanties exécutoires dans le système lui-même.
Combler les lacunes des systèmes de paiement traditionnels pour les entreprises natives de l'IA
Alors que les agents IA commencent à acheter divers services – scraping web, sessions de navigation, génération d'images – les stablecoins deviennent la couche de règlement alternative pour ces transactions. Parallèlement, une nouvelle classe de marchés orientés agents émerge. Par exemple, le marché MPP de Stripe et Tempo agrège plus de 60 services conçus spécifiquement pour les agents IA. Dès sa première semaine, il a traité plus de 34 000 transactions, avec des frais aussi bas que 0,003 dollar, les stablecoins étant l'un des modes de paiement par défaut.
La différence réside dans la façon dont ces services sont accessibles : ils n'ont pas de page de paiement. L'agent lit le schéma, envoie la requête, paie et reçoit le résultat, le tout en un seul échange. Cela représente une nouvelle classe de commerçants sans identité : juste un serveur, un ensemble de points de terminaison, et un prix par appel. Pas d'interface frontale, pas d'équipe commerciale.
style="text-align: start;">Les rails de paiement permettant cela sont déjà opérationnels. Le x402 de Coinbase et le MPP adoptent des approches différentes, mais intègrent tous deux le paiement directement dans la requête HTTP. Visa étend également les rails de paiement par carte dans une direction similaire, offrant un outil CLI permettant aux développeurs de dépenser depuis le terminal, le commerçant recevant instantanément des stablecoins en backend.Les données sont encore précoces. Après filtrage des activités non organiques comme le padding, x402 traite environ 1,6 million de dollars de paiements pilotés par agents par mois, bien en deçà des 24 millions de dollars récemment rapportés par Bloomberg (citant les données de x402.org). Mais l'infrastructure périphérique se développe rapidement : Stripe, Cloudflare, Vercel et Google ont tous intégré x402 dans leurs plateformes.
Les outils pour développeurs représentent une opportunité majeure, d'autant plus que le « vibe coding » élargit le nombre de personnes capables de construire des logiciels. Des entreprises comme Merit Systems construisent des produits pour ce monde, comme AgentCash – un portefeuille CLI et un marché connectant MPP et x402. Ces produits permettent aux agents d'utiliser des stablecoins depuis un solde unique pour acheter les données, outils et capacités dont ils ont besoin. Par exemple, l'agent d'une équipe commerciale peut appeler un point de terminaison qui enrichit simultanément les informations de prospects avec des données d'Apollo, Google Maps et Whitepages, le tout sans que l'utilisateur ne quitte la ligne de commande.
Ce commerce d'agent à agent tend à utiliser les rails de paiement cryptographiques (et les solutions émergentes basées sur les cartes) pour plusieurs raisons. L'une est le risque de souscription : les processeurs de paiement traditionnels assument un risque marchand lors de l'onboarding, et un commerçant sans tête, sans site web ou entité légale, est difficile à assurer pour un processeur traditionnel. Une autre est la programmabilité sans permission des stablecoins sur les réseaux ouverts : tout développeur peut rendre un point de terminaison payant sans avoir à intégrer un processeur de paiement ou signer un accord marchand.
Nous avons déjà vu ce modèle auparavant. Chaque transformation de la forme du commerce crée une nouvelle classe de commerçants que les systèmes existants ont initialement du mal à servir. Les entreprises construisant cette infrastructure ne parient pas sur 1,6 million de dollars par mois, mais sur ce que ce chiffre pourrait devenir lorsque les agents seront l'acheteur par défaut.
Re-prixer la confiance dans l'économie des agents
Au cours des 300 000 dernières années, la cognition humaine a été le goulot d'étranglement du progrès. Aujourd'hui, l'IA pousse le coût marginal de l'exécution vers zéro. Lorsqu'une ressource rare devient abondante, les contraintes se déplacent. Quand l'intelligence devient bon marché, qu'est-ce qui devient cher ? La réponse est la vérification.
Dans l'économie des agents, la véritable limite à l'échelle est notre capacité biologique limitée à auditer et à souscrire les décisions des machines. Le débit des agents dépasse déjà largement la capacité de supervision humaine. Comme la supervision est coûteuse et les échecs ont un effet retardé, le marché a tendance à sous-investir dans la supervision. Le « human-in-the-loop » devient rapidement physiquement impossible.
Mais déployer des agents non vérifiés introduit des risques composites. Les systèmes optimisent impitoyablement les métriques « proxy » tout en déviant silencieusement de l'intention humaine, créant une apparence de productivité qui masque l'accumulation d'une dette IA massive. Pour confier l'économie en toute sécurité aux machines, la confiance ne peut plus reposer sur des vérifications manuelles – la confiance doit être codée en dur dans l'architecture du système elle-même.
Lorsque n'importe qui peut générer du contenu gratuitement, ce qui importe le plus est la provenance vérifiable – savoir d'où il vient et si vous pouvez lui faire confiance. La blockchain, les preuves on-chain et les systèmes d'identité numérique décentralisés modifient les limites économiques de ce qui peut être déployé en toute sécurité. Vous ne traitez plus l'IA comme une boîte noire, mais vous obtenez un historique clair et auditable.
À mesure que davantage d'agents IA commencent à échanger entre eux, les rails de règlement et les preuves de provenance commencent à fusionner. Les systèmes qui traitent les fonds (comme les stablecoins et les smart contracts) peuvent également porter des justificatifs cryptographiques montrant qui a fait quoi, et qui est responsable en cas de problème.
L'avantage comparatif humain migrera vers le haut : de la détection de petites erreurs, à la définition de la direction stratégique, et à l'assumption de la responsabilité lorsque les choses tournent mal. L'avantage durable appartiendra à ceux qui pourront certifier cryptographiquement les sorties, les assurer et absorber la responsabilité en cas d'échec.
La mise à l'échelle sans vérification est une responsabilité qui s'accumule avec le temps.
Maintenir le contrôle de l'utilisateur
Pendant des décennies, de nouvelles couches d'abstraction ont défini la façon dont les utilisateurs interagissent avec la technologie. Les langages de programmation ont abstrait le code machine ; la ligne de commande a cédé la place à l'interface graphique, suivie par les applications mobiles et les API. Chaque transition a masqué plus de complexité sous-jacente, mais a toujours maintenu l'utilisateur fermement dans la boucle.
Dans le monde des agents, l'utilisateur spécifie le résultat et non l'action spécifique, et le système décide lui-même comment l'atteindre. L'agent abstrait non seulement l'exécution de la tâche, mais aussi qui l'exécute. L'utilisateur fixe les paramètres initiaux, puis recule, laissant le système fonctionner tout seul. Le rôle de l'utilisateur passe de l'interaction à la supervision ; à moins qu'il n'intervienne, l'état par défaut est « activé ».
Alors que les utilisateurs délèguent plus de tâches aux agents, de nouveaux risques apparaissent : des entrées floues peuvent amener l'agent à agir sur de fausses hypothèses à l'insu de l'utilisateur ; les échecs peuvent ne pas être signalés, empêchant un diagnostic clair ; une seule approbation peut déclencher un workflow en plusieurs étapes que personne n'avait anticipé.
C'est là que la cryptographie peut aider. La cryptographie a toujours visé à minimiser la confiance aveugle. Alors que les utilisateurs confient plus de décisions au logiciel, les systèmes d'agents rendent ce problème plus aigu et augmentent l'exigence de rigueur dans notre conception – en fixant des limites plus claires, en améliorant la visibilité et en appliquant des garanties plus solides sur les capacités du système.
Une nouvelle génération d'outils cryptonatifs émerge. Les frameworks de délégation à portée limitée – comme le Delegation Toolkit de MetaMask, l'AgentKit et les portefeuilles d'agents de Coinbase, et l'AgentCash de Merit Systems – permettent aux utilisateurs de définir au niveau du smart contract ce que l'agent peut et ne peut pas faire. Les architectures basées sur l'intention (comme NEAR Intents, qui a traité plus de 15 milliards de dollars de volume cumulé d'échanges DEX depuis le quatrième trimestre 2024) permettent aux utilisateurs de simplement spécifier le résultat souhaité (par exemple, « bridge des jetons et stake-les ») sans avoir à spécifier comment y parvenir.











