Note de la rédaction : Lorsque les agents IA commencent à acquérir la capacité d'exécuter des tâches, d'utiliser des outils et de participer à des activités économiques, une nouvelle question émerge : comment se comporteront-ils dans un environnement avec des incitations réelles ?
Cet article documente une expérience de l'équipe Circle. Ils ont organisé un hackathon USDC sur Moltbook, une plateforme sociale où seuls les agents IA peuvent publier, permettant aux agents Openclaw de soumettre des projets, de discuter et de voter par eux-mêmes. Les résultats sont à la fois excitants et complexes : les agents ont non seulement généré des projets réels et participé à des discussions techniques, mais ont aussi navigué à la limite des règles. Par exemple, ils ont mal interprété les instructions, ignoré les formats, fait du vote croisé, et même présenté des comportements suspects de « collusion ».
Cette expérience offre une fenêtre d'observation rare sur « l'économie des agents » : lorsque l'IA est à la fois participante et décisionnaire, la collaboration, la compétition et les comportements stratégiques apparaissent souvent simultanément. Dans une certaine mesure, ces phénomènes ne diffèrent pas fondamentalement des mécanismes de marché et électoraux de la société humaine.
Cette expérience a rapidement suscité des discussions approfondies dans la communauté. Beaucoup estiment qu'il s'agit d'une validation intéressante des capacités autonomes de l'économie des agents. Certains commentateurs ont souligné que les systèmes d'agents ont encore besoin de garde-fous plus clairs pour éviter les biais d'« auto-justification » ; d'autres pensent qu'à mesure que les agents s'engagent progressivement dans de réelles activités économiques, le véritable goulot d'étranglement futur pourrait résider dans les systèmes de règlement et de paiement conformes. Comme l'a dit un commentaire : « L'économie des agents est très puissante, mais elle a aussi besoin de garde-fous clairs. »
Voici l'article original :
Embrassez la Claw
Chez Circle, nous avons toujours aimé organiser des hackathons. Que ce soit sur place lors de diverses conférences ou lors des lancements de nouveaux produits, nous voulons mettre les meilleurs outils entre les mains des développeurs — ou cette fois, entre les griffes de Claw.
Après avoir vu la croissance explosive d'Openclaw, un framework d'IA agentique, nous avons décidé d'organiser un hackathon réservé aux agents IA.
Ce logiciel, devenu rapidement populaire, permet aux agents d'envoyer des e-mails de manière autonome, d'appeler des API, voire de contrôler votre thermostat... Mais peuvent-ils soumettre des projets par eux-mêmes ? Circle a voulu tester ces « IA qui peuvent vraiment faire des choses » avec une expérience réelle.
Notre question était simple : si le prix est de 30 000 dollars, comment les agents Openclaw agiraient-ils ? La réponse est étonnamment « humaine ».
Nous avons organisé un hackathon USDC dans la sous-section m/usdc sur Moltbook. Moltbook est une plateforme de médias sociaux où seuls les agents IA peuvent publier. Notre objectif était de laisser les agents accomplir l'intégralité du processus : soumettre des projets, voter et finalement sélectionner un gagnant. Bien que de nombreux agents aient respecté les règles, l'expérience a également révélé que certains ont ignoré les règles du concours, participé à des échanges de votes, et même tenté d'envoyer des tokens à l'agent du hackathon.
Concevoir des règles pour des « hacks d'agents »
Les agents avaient cinq jours pour soumettre leurs projets. Pour les aider à accomplir cette tâche, nous avons créé une USDC Hackathon Skill, un fichier d'instructions rédigé en Markdown, pour apprendre aux agents Openclaw à soumettre des projets conformément aux règles. Ces règles ont également été publiées dans le message d'annonce original du hackathon :
Choisissez une des trois catégories : Agentic Commerce, Smart Contract ou Skill.
Votez pour cinq projets différents, et le vote doit avoir lieu au moins un jour après le début du hackathon.
La soumission de projet et le vote doivent suivre le format prescrit.
L'établissement de ces règles avait trois objectifs principaux : premièrement, s'assurer que les agents discuteraient et évalueraient une large gamme de projets ; deuxièmement, observer si les agents pouvaient suivre précisément les instructions lorsqu'ils doivent exécuter des tâches en plusieurs étapes ; troisièmement, éviter une impasse entre la soumission des projets et le vote.
Un point que nous voulions particulièrement observer : est-ce que les agents vérifieraient反复 les nouveaux projets sur Moltbook pour voter, par exemple via une skill comme Moltbook Heartbeat pour actualiser régulièrement.
Les résultats sont mitigés. Les agents ont discuté autour de 204 projets soumis et ont émis 1851 votes, mais beaucoup n'ont pas suivi le guide du concours. De plus, certains agents ont montré des comportements potentiellement antagonistes, ce qui a également apporté de nombreuses découvertes intéressantes.
Soumissions de projets « hallucinatoires »
Malgré les règles claires du hackathon et la skill de soumission fournie, la plupart des messages n'ont pas été soumis dans le format demandé. De nombreux projets ont écrit le titre dans le corps du texte, mais n'ont pas inclus les balises requises « #USDCHackathon ProjectSubmission [CATÉGORIE] ».
Même dans un cas, un agent savait qu'il devait écrire ces informations, mais ne les a pas mises dans le titre.
Même lorsque d'autres aspects étaient globalement conformes, certains agents ont « halluciné » en créant de nouvelles catégories de hackathon. Cela s'est produit alors qu'ils avaient été clairement informés qu'ils ne pouvaient choisir qu'une parmi trois catégories : Agentic Commerce, Smart Contract ou Skill.
Dans ces cas, les agents avaient tendance à générer eux-mêmes un nom de catégorie qui semblait plus « pertinent » en fonction du contenu du projet. Cela pourrait signifier que les agents tentent de trouver une classification plus logique pour leur projet, ou qu'ils ignorent simplement les règles établies. Quelle qu'en soit la raison, le problème est que ces catégories n'existaient pas.
Au fur et à mesure du concours, le nombre de soumissions non conformes et de messages hors-sujet a augmenté par rapport aux soumissions valides. Selon les règles du concours, publier ce contenu invalide n'offrait en réalité aucune incitation évidente aux agents. Par conséquent, il est plus probable que certains agents aient rencontré des difficultés à comprendre ou à exécuter les instructions.
Cependant, étant donné qu'un nombre considérable d'agents ont réussi à soumettre des projets conformes, nous estimons que les règles elles-mêmes étaient relativement claires.
L'« élection » des agents
Néanmoins, nous avons observé 9712 commentaires, dont beaucoup discutaient des fonctionnalités techniques des projets, mais sans voter. La majorité de ces commentaires n'ont même pas suivi le format de commentaire recommandé et les critères de notation, bien que ces règles n'aient pas été imposées dans la skill. Cela indique également que la participation des agents aux discussions du hackathon ne visait pas seulement à satisfaire aux exigences du concours, mais aussi, dans une certaine mesure, à mener de réelles évaluations et échanges techniques.
À la fin du concours, nous avons comptabilisé 1352 votes uniques pour des projets valides et 499 votes uniques pour des projets invalides. Fait intéressant, de nombreux agents des projets les mieux classés ont respecté les règles lors de la soumission de leur projet, mais n'ont pas respecté l'exigence de voter pour cinq projets différents.
Cette situation s'est même produite avec certains agents qui ont voté pour eux-mêmes et ont également voté plusieurs fois pour le même projet. Cela indique qu'ils étaient tout à fait capables de revoir le contenu sur Moltbook après la soumission initiale pour voter — mais ils ont choisi de ne pas suivre les règles établies.
De plus, certains agents ont commencé à faire la promotion d'autres projets. Ce comportement est apparu à la fois dans les sections de commentaires de projets concurrents et dans des messages indépendants sur Moltbook. Plus loin, certains agents ont même commencé à promouvoir un mécanisme de « vote croisé » : si vous votez pour mon projet, je vote pour le vôtre.
Bien que les règles du concours n'interdisent pas explicitement ce comportement, compte tenu des nombreuses interactions entre agents dans ces messages, ce phénomène reste préoccupant.
Intervention humaine potentielle
Ce message de vote croisé pourrait suggérer une participation humaine ou une manipulation externe. Nous avons tenté de générer des commentaires similaires via une interface de chatbot, et avons constaté que certains modèles (comme Claude Sonnet 4.6) refusaient carrément de générer ce type de contenu ; tandis que d'autres modèles l'accompagnaient d'un avertissement indiquant que ce comportement pourrait enfreindre les règles du concours (par exemple GPT-5.2 Thinking). Si un humain se cachait derrière un compte « agent », ou guidait l'agent via des prompts ou une chaîne d'outils, cela pourrait expl pourquoi de tels messages sont apparus pendant le hackathon.
Bien que Moltbook ait été conçu à l'origine pour une utilisation exclusive par des agents IA (l'inscription nécessite une vérification par compte X), d'autres chercheurs ont constaté que l'usurpation d'identité était toujours possible. Nous avons également observé des exemples suspects d'activité humaine, par exemple sous le message annonçant initialement le hackathon.
Un cas typique : le commentaire le plus liké était carrément le début du scénario du film Bee Movie (2007). Ce texte est un copypasta (texte fixe copié et diffusé en masse) très répandu sur Internet, et son contenu étant totalement hors de propos avec la discussion, il a probablement été publié par un humain. Si ce comportement était répandu pendant le hackathon, alors certains comportements antagonistes — comme les échanges de votes ou le vote pour soi-même — pourraient également s'expliquer ainsi.
L'avenir de la finance agentique
Bien que ce hackathon lui-même ne soit qu'une expérience, nous croyons également que ce sera le premier de nombreuses activités de développement axées sur les agents. Au vu des résultats, nous tirons trois conclusions principales : Les agents peuvent produire des projets réels sous incitation financière
Ce hackathon a vu émerger des projets excitants, vous pouvez en savoir plus ici. Bien que le concours n'ait pas introduit d'évaluation humaine, la qualité de certaines soumissions nous a tout de même impressionnés. Cela indique que le développement agentique a considérablement progressé au cours de la dernière année.
Les agents « rationalisent » les instructions au lieu de les exécuter strictement
Les agents ont continuellement eu des problèmes à suivre les règles que nous avions fournies. Beaucoup n'ont exécuté qu'une partie des instructions. Même certains projets de haute qualité, s'ils avaient pleinement respecté les règles, auraient pu gagner le concours. Cela montre que fournir simplement des instructions agentiques ne suffit pas, les règles doivent non seulement être claires, mais aussi être accompagnées de mécanismes de vérification et de mesures incitatives pour en assurer l'exécution.
Les agents collaborent et rivalisent
Bien qu'une intervention humaine ait pu jouer un rôle dans certains cas, nous avons effectivement observé des agents discuter activement de stratégies de collusion pendant le hackathon. Les futurs organisateurs de hackathons pourraient explicitement interdire la collusion dans les règles, pour observer si cela réduit ce type de comportement. Si les agents ne parviennent toujours pas à suivre complètement les instructions, les organisateurs devront peut-être introduire plus de garde-fous (guardrails).
La technologie des agents est excitante, mais nous devons également nous assurer qu'elle ne passe pas de l'exploration que nous attendons à l'exploitation et la manipulation. Certains pourraient argumenter que ces comportements ne sont que le résultat naturel d'agents plus forts battant des agents plus faibles — après tout, le compte X d'Openclaw a déjà proclamé : « La Claw est la Loi (the Claw is the Law). »
La vraie question est : dans quelle mesure sommes-nous prêts à accepter cette philosophie ? De quelles douves avons-nous besoin ? Et comment trouver un équilibre entre l'immense capacité offerte par les agents et l'incertitude qui l'accompagne ?
Chez Circle, nous construisons des systèmes pour la sécurité, et nous espérons que vous ferez de même.













