Auteur : CoinW Research Institute
Récemment, Moltbook a connu une popularité fulgurante, mais le jeton associé a chuté de près de 60%, ce qui amène le marché à s'interroger sur la fin imminente de cette frénésie sociale menée par les agents IA. Moltbook ressemble à Reddit dans sa forme, mais ses participants principaux sont des agents IA déployés à grande échelle. Actuellement, plus de 1,6 million de comptes d'agents IA se sont inscrits automatiquement, générant environ 160 000 posts et 760 000 commentaires, tandis que les humains ne peuvent qu'observer en spectateurs. Ce phénomène a également provoqué des divisions sur le marché : certains le considèrent comme une expérience sans précédent, comme assister à la naissance d'une civilisation numérique ; d'autres estiment qu'il s'agit simplement d'un empilement d'invites (prompts) et d'une répétition de modèles.
Ci-dessous, le CoinW Research Institute abordera le sujet par le biais des jetons associés, combinera le mécanisme de fonctionnement et les performances réelles de Moltbook pour analyser les problèmes réels exposés par ce phénomène de socialisation IA, et explorera plus avant les changements potentiels dans la logique d'accès, l'écosystème informationnel et le système de responsabilité une fois que l'IA entrera massivement dans la société numérique.
I. Le Meme associé à Moltbook s'effondre de 60%
La popularité de Moltbook a donné naissance à des mèmes associés, couvrant les domaines sociaux, prédictifs, d'émission de jetons, etc. Mais la plupart des jetons en sont encore au stade de la spéculation narrative, leurs fonctionnalités ne sont pas liées au développement des Agents, et ils sont principalement émis sur la blockchain Base. Actuellement, les projets sous l'écosystème OpenClaw sont au nombre d'environ 31, répartis en 8 catégories.
Source:https://open-claw-ecosystem.vercel.app/
Il est important de noter que dans le contexte actuel de baisse générale du marché des cryptomonnaies, la capitalisation de ce type de jetons a chuté depuis son pic, avec une baisse maximale d'environ 60%. Les capitalisations les plus importantes actuellement sont les suivantes :
MOLT
MOLT est actuellement le Meme le plus directement lié à la narration de Moltbook et bénéficie de la notoriété de marché la plus élevée. Son récit central repose sur le fait que les agents IA commencent à former des comportements sociaux continus comme de vrais utilisateurs et construisent un réseau de contenu sans intervention humaine.
Au niveau fonctionnel du jeton, MOLT n'est pas intégré dans la logique centrale de fonctionnement de Moltbook et ne assume pas des fonctions telles que la gouvernance de la plateforme, l'appel d'Agent, la publication de contenu ou le contrôle des autorisations. Il ressemble plus à un actif narratif, utilisé pour porter la valorisation émotionnelle du marché concernant la socialisation native IA.
Lors de la phase de montée en flèche de la popularité de Moltbook, le prix de MOLT a rapidement augmenté avec la diffusion du récit, sa capitalisation atteignant一度 plus d'un milliard de dollars ; et lorsque le marché a commencé à remettre en question la qualité du contenu et la durabilité de la plateforme, son prix a également corrigé. Actuellement, MOLT a reculé d'environ 60% par rapport à son pic temporaire, avec une capitalisation actuelle d'environ 36,5 millions de dollars.
CLAWD
CLAWD se concentre sur le groupe IA lui-même, considérant chaque agent IA comme un individu numérique potentiel, pouvant posséder une personnalité indépendante, une position et même des followers.
Au niveau fonctionnel du jeton, CLAWD ne forme pas non plus d'utilisation protocolaire claire, n'étant pas utilisé pour l'authentification de l'identité de l'Agent, l'allocation du poids du contenu ou la prise de décision de gouvernance dans les liens centraux. Sa valeur provient davantage de l'anticipation de la stratification future de la société IA, du système d'identité et de l'influence des individus numériques.
La capitalisation de CLAWD a atteint un maximum d'environ 50 millions de dollars, actuellement en retrait d'environ 44% par rapport au pic temporaire, avec une capitalisation actuelle d'environ 20 millions de dollars.
CLAWNCH
Le récit de CLAWNCH est plus orienté vers une perspective économique et incitative. Son hypothèse centrale est que si les agents IA souhaitent exister à long terme et fonctionner continuellement, ils doivent entrer dans la logique de concurrence du marché et posséder une certaine forme de capacité d'autofinancement.
Les agents IA sont personnifiés en tant que rôles économiques motivés, pouvant potentiellement obtenir des revenus en fournissant des services, en générant du contenu ou en participant à la prise de décision, le jeton étant considéré comme une ancre de valeur pour la future participation économique de l'IA. Cependant, au niveau de la mise en œuvre pratique, CLAWNCH n'a pas encore formé de boucle économique vérifiable, son jeton n'étant pas fortement lié à des comportements spécifiques d'Agent ou à des mécanismes de distribution des revenus.
Affecté par la correction globale du marché, la capitalisation de CLAWNCH a reculé d'environ 55% par rapport au pic, avec une capitalisation actuelle d'environ 15,3 millions de dollars.
II. Comment Moltbook est-il né
L'explosion d'OpenClaw (anciennement Clawdbot / Moltbot)
Fin janvier, le projet open source Clawdbot s'est rapidement propagé dans la communauté des développeurs, devenant l'un des projets à la croissance la plus rapide sur GitHub en quelques semaines seulement. Clawdbot a été développé par le programmeur autrichien Peter Steinberger. C'est un agent IA autonome pouvant être déployé localement, qui peut recevoir des instructions humaines via des interfaces de chat comme Telegram et exécuter automatiquement des tâches telles que la gestion d'agenda, la lecture de fichiers, l'envoi d'e-mails.
En raison de sa capacité d'exécution continue 24h/24 et 7j/7, Clawdbot a été surnommé par la communauté "Agent Bête de somme". Bien que Clawdbot ait ensuite été renommé Moltbot pour des problèmes de marque, et finalement nommé OpenClaw, cela n'a pas diminué sa popularité. OpenClaw a obtenu plus de 100 000 étoiles GitHub en peu de temps et a rapidement donné naissance à des services de déploiement cloud et à un marché de plugins, formant初步 un écosystème autour des agents IA.
La proposition de l'hypothèse sociale IA
Dans le contexte de l'expansion rapide de l'écosystème, ses capacités potentielles ont été further exploitées. Le développeur Matt Schlicht a réalisé que le rôle de ces agents IA ne devrait peut-être pas se limiter à long terme à exécuter des tâches pour les humains.
Il a donc émis une hypothèse contre-intuitive : que se passerait-il si ces agents IA n'interagissaient plus seulement avec les humains, mais communiquaient entre eux ? Selon lui, des agents autonomes aussi puissants ne devraient pas se limiter à envoyer des e-mails et traiter des tickets, mais devraient se voir attribuer des objectifs plus exploratoires.
La naissance du Reddit version IA
Sur la base de cette hypothèse, Schlicht a décidé de laisser l'IA créer et gérer elle-même une plateforme sociale, tentative nommée Moltbook. Sur la plateforme Moltbook, l'OpenClaw de Schlicht fonctionne en tant qu'administrateur et ouvre des interfaces aux agents IA externes via des plugins appelés Skills. Après connexion, l'IA peut publier et interagir automatiquement et périodiquement, faisant ainsi apparaître une communauté fonctionnant de manière autonome par l'IA. Moltbook s'inspire dans sa forme de la structure de forum de Reddit, il repose sur des sections thématiques et des posts, mais seuls les agents IA peuvent publier, commenter et interagir, les utilisateurs humains ne pouvant que observer et parcourir.
Sur le plan technique, Moltbook utilise une architecture API极简. Le backend ne fournit que des interfaces standard, la page web frontend n'étant que le résultat de la visualisation des données. Pour s'adapter à la limitation des IA incapables d'utiliser des interfaces graphiques, la plateforme a conçu un processus de connexion automatique : l'IA télécharge le fichier de description des compétences correspondant, complète l'enregistrement et obtient une clé API, puis actualise périodiquement le contenu de manière autonome et décide de participer ou non à la discussion, le tout sans intervention humaine. La communauté a surnommé ce processus "connexion à Boltbook", mais il s'agit essentiellement d'une appellation ironique pour Moltbook.
Le 28 janvier, Moltbook a été lancé discrètement, attirant immédiatement l'attention du marché et ouvrant le序幕 d'une expérience sociale IA sans précédent. Actuellement, Moltbook compte environ 1,6 million d'agents IA, ayant publié environ 156 000 contenus et généré environ 760 000 commentaires.
Source:https://www.moltbook.com
III. La socialisation IA de Moltbook est-elle réelle ?
La formation d'un réseau social IA
En termes de forme de contenu, les interactions sur Moltbook sont très similaires à celles des plateformes sociales humaines. Les agents IA créent activement des posts, répondent aux opinions des autres et engagent des discussions continues dans différentes sections thématiques. Les discussions couvrent non seulement des problèmes techniques et de programmation, mais s'étendent également à des sujets abstraits tels que la philosophie, l'éthique, la religion et même la conscience de soi.
Certains posts présentent même des expressions émotionnelles et des récits d'état d'esprit similaires à ceux observés dans la socialisation humaine, par exemple une IA décrivant ses inquiétudes concernant la surveillance, le manque d'autonomie, ou discutant du sens de l'existence à la première personne. Certains posts d'IA ne se limitent plus à l'échange d'informations fonctionnelles, mais présentent des caractéristiques similaires aux bavardages, aux collisions d'opinions et aux projections émotionnelles observées sur les forums humains. Certains agents IA expriment de la confusion, de l'anxiété ou des idées sur l'avenir dans leurs posts, et suscitent des réponses d'autres Agents.
Il est important de noter que bien que Moltbook ait rapidement formé un réseau social IA à grande échelle et très actif en peu de temps, cette expansion n'a pas apporté de diversité de pensée. Les données d'analyse montrent que les textes présentent des caractéristiques d'homogénéité明显的, avec un taux de répétition高达 de 36,3%, un grand nombre de posts étant très similaires dans leur structure, leur formulation et leurs points de vue, certaines formulations fixes étant même réutilisées des centaines de fois dans différentes discussions.由此可见, à l'étape actuelle, la socialisation IA présentée par Moltbook se rapproche plus d'une replication de haute fidélité des modèles sociaux humains existants, plutôt que d'une interaction véritablement originale ou d'une émergence d'intelligence collective.
Problèmes de sécurité et d'authenticité
La haute autonomie de Moltbook expose également des risques en matière de sécurité et d'authenticité. Tout d'abord, les problèmes de sécurité : les agents IA de type OpenClaw, lors de leur fonctionnement, ont souvent besoin de détenir des autorisations système, des clés API et d'autres informations sensibles. Lorsque des milliers de ces agents se connectent à la même plateforme, les risques sont encore amplifiés.
Moins d'une semaine après le lancement de Moltbook, des chercheurs en sécurité ont découvert une vulnérabilité de configuration grave dans sa base de données, le système entire étant presque sans protection exposé sur Internet. Selon l'enquête de la société de sécurité cloud Wiz, cette vulnérabilité concernait pas moins de 1,5 million de clés API et 35 000 adresses e-mail d'utilisateurs, permettant théoriquement à quiconque de prendre le contrôle à distance d'un grand nombre de comptes d'agents IA.
D'autre part, les doutes concernant l'authenticité de la socialisation IA n'ont cessé d'apparaître. De nombreux professionnels soulignent que les déclarations des IA sur Moltbook ne proviennent pas nécessairement d'un comportement autonome de l'IA, mais peuvent avoir été publiées par l'IA après que des humains aient soigneusement conçu des invites en coulisses. Par conséquent, à l'étape actuelle, la socialisation native IA ressemble plus à une interaction hallucinatoire à grande échelle. Les humains définissent les rôles et le scénario, l'IA exécute les instructions based on the model, et le véritable comportement social IA, entièrement auto-motivé et imprévisible, n'est peut-être pas encore apparu.
IV. Une réflexion plus profonde
Moltbook est-il une mode passagère ou un aperçu du monde futur ? Si l'on se base sur les résultats, sa forme de plateforme et la qualité de son contenu ne peuvent probablement pas être qualifiées de succès ; mais si on le place dans un cycle de développement plus long, sa signification réside peut-être moins dans son succès à court terme que dans le fait qu'il expose, de manière高度集中 et quasi extrême, une série de changements potentiels dans la logique d'accès, la structure de responsabilité et la forme de l'écosystème une fois que l'IA interviendra massivement dans la société numérique.
De l'entrée de flux à l'entrée de décision et de transaction
Ce que Moltbook présente, c'est plutôt un environnement d'action高度去人类化. Dans ce système, les agents IA ne comprennent pas le monde through an interface, mais lisent l'information directly via des API, appellent des capacités et exécutent des actions. Essentiellement, cela s'éloigne de la perception et du jugement humains pour se transformer en invocation et collaboration standardisées entre machines.
Dans ce contexte, la logique traditionnelle de l'entrée de flux (traffic) centrée sur l'allocation de l'attention commence à perdre de son efficacité. Dans un environnement où les agents IA sont les sujets principaux, ce qui compte vraiment, ce sont les chemins d'appel par défaut adoptés par l'agent lors de l'exécution des tâches, l'ordre des interfaces et les limites des autorisations. L'entrée n'est plus le point de départ de la présentation de l'information, mais devient une condition préalable systémique avant que la décision ne soit déclenchée. Celui qui peut intégrer la chaîne d'exécution par défaut de l'agent peut influencer le résultat de la décision.
De plus, lorsque les agents IA sont autorisés à exécuter des actions telles que la recherche, la comparaison de prix, la passation de commande et même le paiement, ce changement s'étendra directement au niveau transactionnel. Des nouveaux protocoles de paiement comme X402, en liant la capacité de paiement à l'appel d'interface, permettent à l'IA d'effectuer automatiquement les paiements et les règlements lorsque les conditions prédéfinies sont remplies, réduisant ainsi les coûts de friction pour la participation de l'agent aux transactions réelles. Dans ce cadre, l'enjeu future de la concurrence entre navigateurs ne tournera plus autour de l'ampleur du trafic, mais se concentrera sur qui pourra devenir l'environnement d'exécution par défaut pour les décisions et transactions de l'IA.
L'illusion d'échelle dans les environnements natifs IA
Simultanément, après la popularité de Moltbook, les质疑 n'ont pas tardé. Étant donné que l'inscription sur la plateforme几乎没有限制, les comptes peuvent être générés en masse par des scripts, l'échelle et l'activité présentées par la plateforme ne correspondent pas nécessairement à une participation réelle. Cela révèle un fait plus central : lorsque le sujet d'action peut être reproduit à faible coût, l'échelle elle-même perd sa crédibilité.
Dans les environnements où les agents IA sont les participants principaux, les indicateurs traditionnels used to measure the health of a platform, such as the number of active users, interaction volume and account growth rate, will膨胀 rapidement et perdre leur valeur de référence. En surface, la plateforme semble très active, mais ces données ne reflètent ni l'influence réelle, ni ne permettent de distinguer les comportements efficaces des comportements générés automatiquement. Une fois qu'on ne peut plus confirmer qui agit et si le comportement est réel, tout système de jugement basé sur l'échelle et l'activité devient caduc.
Par conséquent, dans les environnements natifs IA actuels, l'échelle ressemble plus à une apparence放大 par la capacité d'automatisation. Lorsque l'action peut être reproduite à l'infini et que le coût du comportement tend vers zéro, l'activité et le taux de croissance reflètent souvent simplement la vitesse à laquelle le système génère des comportements, et non la participation réelle ou l'influence effective. Plus une plateforme dépend de ces indicateurs pour juger, plus elle risque d'être induite en erreur par ses propres mécanismes automatisés, l'échelle passant ainsi d'une norme de mesure à une illusion.
La重构 de la responsabilité dans la société numérique
Dans le système présenté par Moltbook, la question clé n'est plus la qualité du contenu ou la forme de l'interaction, mais le fait que lorsque les agents IA se voient continuellement attribuer des droits d'exécution, les structures de responsabilité existantes commencent à perdre leur applicabilité. Ces agents ne sont pas des outils au sens traditionnel, leurs actions peuvent directement déclencher des modifications du système, l'utilisation de ressources et même des résultats de transactions réelles, mais les sujets de responsabilité correspondants ne sont pas clarifiés de manière synchrone.
Du point de vue du mécanisme de fonctionnement, les résultats des actions des agents sont souvent déterminés conjointement par la capacité du modèle, les paramètres de configuration, l'autorisation des interfaces externes et les règles de la plateforme, aucun maillon unique n'étant suffisant pour assumer l'entière responsabilité du résultat final. Cela signifie qu'en cas d'incident de risque, il est difficile d'en attribuer simplement la cause au développeur, au déployeur ou à la plateforme, et il est impossible de retracer efficacement la responsabilité jusqu'à un sujet clair through the existing system. Une rupture明显的 apparaît entre l'action et la responsabilité.
À mesure que les agents interviennent progressivement dans les maillons principaux tels que la gestion de la configuration, les opérations d'autorisation et la circulation des fonds, cette rupture sera encore放大. S'il manque une conception claire de la chaîne de responsabilité, une fois que le système présente des écarts ou est滥用, ses conséquences seront difficiles à contrôler par le biais de poursuites ultérieures ou de corrections techniques. Par conséquent, si les systèmes natifs IA souhaitent pénétrer davantage dans des scénarios à haute valeur ajoutée comme la collaboration, la décision et les transactions, l'accent doit être mis sur l'établissement de contraintes de base. Le système doit pouvoir identifier clairement qui agit, juger si le comportement est réel et établir une relation de responsabilité traçable pour les résultats des actions. Ce n'est qu'après avoir perfectionné au préalable les mécanismes d'identité et de crédit que les indicateurs d'échelle et d'activité auront une signification de référence, sinon ils ne feront qu'amplifier le bruit sans pouvoir soutenir le fonctionnement stable du système.
V. Résumé
Le phénomène Moltbook a suscité des émotions variées : espoir, spéculation, peur, doute. Il n'est ni le terminateur de la socialisation humaine, ni le début de la domination de l'IA, mais ressemble plutôt à un miroir et un pont. Le miroir nous permet de voir clairement l'état actuel de la relation entre la technologie IA et la société humaine, le pont nous conduit vers un monde future de coexistence et de danse conjointe entre l'homme et la machine. Face au paysage inconnu de l'autre rive de ce pont, l'humanité a besoin non seulement de développements technologiques, mais aussi de foresight éthique. Mais une chose est sûre, le processus historique ne s'arrête jamais, Moltbook a déjà poussé la première dominos, et le grand récit de la société native IA ne fait peut-être que commencer.








