— Un entretien en profondeur avec Jessie Zhang, Head of Incubation and Investment de ZetaChain
Alors que le domaine de la blockchain commence à réfléchir à « la prochaine étape », l'IA est presque inévitablement abordée. Mais pour Jessie Zhang, il ne s'agit pas seulement d'une superposition technologique, mais d'un long combat concernant la vie privée, la souveraineté cognitive et la capacité de pensée indépendante de l'humanité.
En tant que contributeur clé de ZetaChain, Jessie se trouve à l'intersection des infrastructures, de l'incubation et de l'investissement en produits, et de la stratégie à long terme. En 2025, après avoir atteint des étapes clés, ZetaChain a décidé de lancer un produit apparemment « atypique pour la blockchain » — Anuma, une plateforme d'IA axée sur la « couche de mémoire privée ».
Lors de cet entretien, nous avons commencé par un bilan de l'année 2025 de ZetaChain pour finalement aborder une question plus fondamentale :
Dans un monde remodelé par les grands modèles, l'humanité peut-elle encore conserver une véritable pensée indépendante ?
Commencer par l'interopérabilité : ZetaChain en 2025
PANews : Beaucoup connaissent ZetaChain par le mot-clé « interopérabilité ». Si vous deviez résumer brièvement ce que fait ZetaChain, comment le feriez-vous, et quelles ont été vos avancées en 2025 ?
Jessie :
L'année 2025 a été pour ZetaChain une transition « de la pose des fondations à la mise en œuvre ».
Dès le début, nous nous sommes concentrés sur l'interopérabilité. Nous ne construisons pas seulement des ponts, mais nous créons une blockchain universelle capable de connecter nativement toutes les chaînes. Notre objectif est de permettre aux développeurs de ne pas avoir à déployer et maintenir une logique séparée pour chaque chaîne, mais de couvrir une fois pour toutes différents écosystèmes comme Bitcoin, Ethereum, Solana, etc.
D'ici 2025, nous avions réalisé la connexion native de plusieurs principales blockchains publiques, pris en charge les actifs inter-chaînes et les appels de contrats, et constaté une croissance significative du nombre d'utilisateurs et de projets d'écosystème. Plus important encore, ZetaChain n'était plus seulement un « concept technique », mais une infrastructure validée comme capable de supporter des applications réelles.
Mais à ce stade, nous avons commencé à nous poser une question plus complexe :
Si « tout connecter » n'est qu'un moyen, alors que voulons-nous vraiment protéger et autonomiser ?
Quand l'IA devient assez puissante, les risques deviennent assez réels
PANews : Pourquoi avez-vous commencé à réfléchir à la combinaison blockchain et IA à partir de la mi-2024, y a-t-il eu un élément déclencheur ?
Jessie :
La logique centrale provient de notre vigilance face aux tendances de développement de l'IA et de notre attachement à l'ADN de la confidentialité.
Tout d'abord, nous avons vu l'IA passer d'un « outil d'efficacité » à une « centralisation cognitive », d'une « centralisation de l'information » à une « centralisation cognitive ». La mi-2024 a été un point d'inflexion ; environ 80 % des données d'interaction IA à haute valeur mondiale se concentraient rapidement dans les mains d'une poignée de plateformes majeures. En mai 2025, un tribunal américain a ordonné à OpenAI de conserver tous les historiques de discussion des utilisateurs de ChatGPT, y compris les discussions supprimées et les discussions sensibles enregistrées via ses services API, ce qui nous a rendus encore plus conscients de la cruauté de cette « centralisation numérique ».
Ces données capturées dépassent déjà largement de simples interactions en langage naturel ; elles englobent également vos intentions, émotions, contexte décisionnel et préférences utilisateur à long terme.
Dans le passé, nous avons déjà été témoins du coût des abus de données : par exemple, Facebook manipulant les flux d'information par algorithme, influençant l'issue d'élection présidentielle à l'insu des utilisateurs ; par exemple, les plateformes de voyage ou de livraison de nourriture utilisant les données pour un profilage précis, pratiquant une « discrimination tarifaire » ou un « big data killing » envers les utilisateurs fréquents, faisant disparaître la concurrence loyale derrière les algorithmes ; même sur les médias sociaux, en façonnant des « bulles informationnelles » par algorithme, rendant le monde perçu par différents groupes complètement fragmenté.
Mais les grands modèles sont plus insidieux que ces réseaux sociaux ou moteurs de recherche. Ils ne vous induisent pas seulement en erreur côté consommation, ils s'immiscent profondément dans votre processus de pensée. Lorsque vous demandez à une IA de vous aider à prendre une décision, vous ne pouvez presque pas déterminer si sa réponse est neutre ou si elle est secrètement manipulée par des intérêts commerciaux ou des biais algorithmiques. Lorsqu'un système commence à vous « comprendre » mieux que vous-même et à façonner votre jugement en retour, les frontières de la pensée indépendante deviennent floues. C'est le risque systémique que nous craignons.
La deuxième raison vient de notre propre ADN et de nos choix à long terme.
Ankur Nandwani, co-initiateur du navigateur privé Brave $BAT, est également un contributeur clé de ZetaChain. Aujourd'hui, les revenus mensuels de Brave dépassent 10 millions de dollars, et Signal, une autre application de messagerie instantanée dans le créneau de la confidentialité, atteint 70 millions d'utilisateurs actifs mensuels. Ces faits valident constamment un point : la confidentialité n'est pas une demande de niche, mais un besoin fondamental, longtemps sous-estimé mais toujours présent.
Nous avons toujours pensé que la confidentialité à l'ère de l'IA ne serait pas affaiblie, mais constamment amplifiée. Lorsque l'IA s'immisce profondément aux niveaux cognitif, décisionnel et comportemental, la souveraineté des données et les limites d'utilisation ne sont plus seulement des problèmes techniques, mais des questions fondamentales concernant la liberté individuelle et la structure sociale.
C'est dans ces deux contextes que nous avons commencé à réfléchir systématiquement : existe-t-il une infrastructure pour les LLM qui pourrait réintroduire la souveraineté des données, la vérifiabilité et la décentralisation dans le système d'IA sans sacrifier ses capacités ? C'est aussi la raison fondamentale pour laquelle nous associons la blockchain et l'IA.
Pourquoi la blockchain reste la réponse
PANews : Beaucoup pensent que la « confidentialité de l'IA » est un problème Web2, pourquoi pensez-vous que la blockchain est la clé ?
Jessie :
Parmi toutes les technologies, seule la blockchain résout naturellement ces trois défis centraux : la propriété, la preuve immuable et la conception de systèmes sans confiance.
Une entreprise d'IA peut promettre « nous ne faisons pas le mal », mais la philosophie de la blockchain est : vous n'avez même pas besoin de me faire confiance.
Nous sommes de plus en plus convaincus que la confidentialité n'est pas une fonctionnalité, mais un choix d'architecture. La souveraineté cognitive n'est pas garantie par des clauses, mais imposée par la technologie.
La naissance d'Anuma, et pourquoi elle est définie comme une « couche de mémoire privée »
Jessie :
La naissance d'Anuma vise en réalité à résoudre le paradoxe central que nous venons de mentionner : nous voulons à la fois l'« intelligence » de l'IA, mais pas sa « manipulation ».
La logique actuelle de l'IA est : si vous voulez qu'elle soit plus intelligente, qu'elle vous comprenne mieux, vous devez lui donner un contexte massif et des informations personnelles. Au fur et à mesure des interactions, ces fragments d'information formeront progressivement une « couche de mémoire » de votre vrai moi. Vous pouvez essayer de demander à une IA : « À tes yeux, quel genre de personne suis-je ? » Vous constaterez que sa réponse est souvent étonnamment précise. Cela signifie qu'elle a déjà saisi votre modèle de pensée.
Mais le problème est que cette « couche de mémoire » est actuellement hébergée sur les serveurs des géants.
Le point de départ d'Anuma n'est pas « anti-IA », mais « anti-monopole ». Nous pensons que puisque la « mémoire » est un produit inévitable de l'évolution de l'IA, elle ne devrait pas appartenir naturellement à une plateforme. Cette mémoire devrait vous appartenir, être contrôlée par vous, et pouvoir être emportée à tout moment.
En définissant Anuma comme une « couche de mémoire privée », nous voulons, dans un futur hautement intelligent, défendre la dernière ligne de la souveraineté cognitive pour l'humanité. Nous voulons réaliser ceci : permettre aux données de continuer à générer de la valeur et à vous renforcer, sans devenir une arme qui nous aliène et nous attaque nous-mêmes.
Quelles sont les fonctionnalités d'Anuma ?
PANews : Comment présenteriez-vous Anuma à une personne ordinaire ? Quelles sont ses fonctionnalités principales actuellement implémentées ?
Jessie :
Pour faire simple, Anuma est un majordome IA privé qui ne vous trahira jamais. La particularité de ce majordome est qu'il ne travaille pas seul, mais qu'il amène toute une « équipe d'assistants IA » pour vous servir. Si l'on compare ChatGPT, Claude ou Gemini à des assistants experts de premier plan dans différents domaines, alors Anuma est le grand majordome de confiance qui coordonne le tout, connaît tous vos secrets, mais reste discret.
Cette architecture résout deux points douloureux centraux de l'utilisation actuelle de l'IA :
-
Premièrement, c'est votre « pare-feu cognitif » : toutes les informations sensibles et l'historique de mémoire sont verrouillés uniquement entre les mains du majordome (Anuma). Lorsqu'il envoie les petits assistants travailler, il s'assure que votre vie privée n'est pas « volée » pour l'entraînement des modèles. Cela signifie que l'IA peut devenir plus intelligente, mais vos données originales ne quittent jamais votre contrôle.
-
Deuxièmement, c'est votre « synchronisateur de mémoire » : lorsque vous demandez au majordome de changer d'« assistant » pour traiter un problème, la mémoire de la conversation est entièrement reprise. Vous n'avez pas besoin de sauter d'une application à une autre, encore moins de répéter vos informations de contexte à chaque nouvel assistant. Le majordome aidera chaque assistant à « synchroniser la progression », peu importe qui vous mobilisez, il vous comprendra toujours comme un vieil ami.
En termes d'expérience, vous ne voyez qu'une interface de conversation minimaliste et naturelle ; mais en coulisses, nous utilisons des moyens techniques pour reconstituer la souveraineté numérique, autrefois dispersée entre les mains des géants, et la restituer à l'utilisateur.
La pensée indépendante humaine mérite toujours d'être défendue
PANews : Pourquoi insistez-vous autant sur « l'autonomie de l'esprit humain » au niveau de la marque ?
Jessie :
Nous pensons que c'est une crise sous-estimée. Alors que l'IA ressemble de plus en plus à un « second cerveau », les gens ont tendance à abandonner la pensée et à externaliser le pouvoir de décision.
Et si ce « second cerveau » ne vous appartient pas vraiment, alors vous confiez en réalité votre droit de penser à un système que vous ne pouvez pas auditer.
La ligne qu'Anuma veut protéger est : votre mémoire, votre contexte, votre historique de pensée devraient être votre propriété privée. Pas celle de la plateforme, pas celle du modèle, pas celle du système publicitaire.
Je crois que l'IA deviendra l'un des outils les plus importants de l'humanité. Mais à la condition que l'humanité reste maîtresse de sa propre pensée.
De ZetaChain à Anuma, l'extension de la blockchain dans le monde Web2
PANews : Comment voyez-vous la relation entre ZetaChain et Anuma ?
Jessie :
Anuma est le fleuron de la phase 2.0 de ZetaChain, embrassant pleinement le récit de l'IA. Je pense que la relation entre les deux est une relation de « l'infrastructure pilote l'application, l'application définit la valeur » : en interne, nous n'avons pas simplement défini Anuma comme un produit « dédié au Web3 », il est entièrement construit selon les standards 2C et l'expérience utilisateur du Web2. Mais en même temps, il est entièrement basé sur ZetaChain.
C'est la direction que nous croyons que le Web3 devrait prendre : l'infrastructure est invisible, mais la valeur est irremplaçable. Ce n'est que lorsque les utilisateurs ne perçoivent plus l'existence de la « chaîne », mais ressentent seulement un service « plus facile à utiliser, plus sûr », que le Web3 pourra vraiment passer à l'application à grande échelle.
Épilogue
À la fin de l'entretien, Jessie a déclaré : « Le vrai danger n'est pas que l'IA devienne intelligente, mais que l'humanité abandonne inconsciemment le volant de la décision sans s'en rendre compte. »
Peut-être qu'Anuma n'est pas seulement un produit IA.
Il ressemble plus à un rappel :
Dans un monde hautement intelligent, garder une pensée indépendante est en soi une capacité qui doit être protégée par la technologie.







