Auteur : Nancy, PANews
Les médias sociaux d’aujourd’hui semblent toujours animés, mais la « sensation de présence humaine » disparaît progressivement. Alors que des quantités massives de déchets d’IA (AI slop) déferlent sur les principales plateformes, les contenus truqués et générateurs de trafic prolifèrent de manière incontrôlée. De plus en plus d’utilisateurs réels perdent l’envie de partager et commencent même à fuir.
Face à la prolifération de ces déchets d’IA, la simple modération algorithmique semble insuffisante. Récemment, le fonds de capital-risque de premier plan a16z a proposé le concept de « Staked Media » (Médias avec jalonnement), utilisant de l’argent réel pour filtrer le bruit de l’IA, ce qui a suscité l’attention du marché.
Quand l’IA commence à se répliquer, Internet est submergé par du « contenu préfabriqué »
« L’IA commence à imiter l’IA. »
Récemment, les modérateurs du « Reddit américain » ont été submergés, luttant contre un flux massif de contenu généré par IA. Les modérateurs du forum r/AmItheAsshole, qui compte 24 millions d’utilisateurs, se plaignent que plus de la moitié du contenu est désormais généré par IA.
Rien qu’au premier semestre 2025, Reddit a supprimé plus de 40 millions de contenus indésirables et faux. Ce phénomène s’est également propagé comme un virus sur Facebook, Instagram, X, YouTube, Xiaohongshu et TikTok.
À une époque où l’information semble explosive mais où les voix authentiques se font de plus en plus rares, les déchets de contenu produits par l’IA imprègnent presque tout Internet, rongeant insidieusement les esprits. En réalité, avec la popularisation d’outils génératifs comme ChatGPT et Gemini, la création de contenu artisanal est remplacée par l’IA, devenant le processus une « usine à chaîne de montage ».
Selon une étude récente de l’entreprise d’optimisation pour les moteurs de recherche Graphite, la proportion d’articles générés par IA a considérablement augmenté depuis la mise à disposition publique de ChatGPT fin 2022, passant d’environ 10 % cette année-là à plus de 40 % en 2024. En mai dernier, cette proportion est montée à 52 %.
Cependant, la plupart de ces contenus générés par IA ressemblent à des « plats préparés », avec une recette fixe et un processus de production standardisé, mais manquant d’âme, ce qui les rend fades à la lecture. Pire encore, l’IA n’est plus maladroite ; elle peut imiter le ton humain et même reproduire des émotions. Des guides de voyage aux conflits sentimentaux, en passant par la provocation délibérée de clivages sociaux pour générer du trafic, l’IA peut tout produire avec facilité.
Plus grave encore, lorsque l’IA produit des hallucinations, elle dit des absurdités avec un sérieux absolu, créant non seulement des déchets informationnels, mais aussi une crise de confiance.
À l’ère de la prolifération de l’IA, utiliser de l’argent réel pour établir la confiance dans les médias
Face à la prolifération des déchets d’IA sur Internet, les principales plateformes, même en mettant à jour leurs mécanismes de modération et en intégrant l’IA, peinent à obtenir des résultats efficaces. Dans le rapport annuel important publié par a16z crypto, Robert Hackett a proposé le concept de « Staked Media » (Médias avec jalonnement). (Lecture connexe : a16z : 17 nouvelles directions cryptos enthousiasmantes pour 2026)
Le rapport indique que le modèle médiatique traditionnel prône l’objectivité, mais ses défauts sont apparus depuis longtemps. Internet a donné à chacun une plateforme pour s’exprimer, et aujourd’hui, de plus en plus de professionnels, de praticiens et de bâtisseurs transmettent directement leurs points de vue au public, leurs perspectives reflétant leurs propres intérêts dans le monde. Il est assez ironique que le public les respecte, souvent non pas « bien qu’ils aient des intérêts liés », mais « précisément parce qu’ils ont des intérêts liés ».
Le nouveau développement de cette tendance n’est pas l’essor des médias sociaux, mais « l’émergence d’outils cryptographiques » qui permettent aux gens de faire des engagements vérifiables publiquement. Alors que l’IA réduit considérablement le coût et facilite la génération de masses de contenu (pouvant être généré à partir de n’importe quelle perspective, n’importe quelle identité, vrai ou faux), s’appuyer uniquement sur des déclarations humaines (ou robotiques) ne suffit plus à convaincre. Les actifs tokenisés, le verrouillage programmable, les marchés prédictifs et les historiques on-chain offrent une base plus solide pour la confiance : les commentateurs peuvent prouver, en publiant leurs opinions, qu’ils agissent conformément à leurs paroles (en soutenant leurs opinions avec des fonds) ; les podcasteurs peuvent verrouiller des jetons, prouvant qu’ils ne changeront pas opportunément de position ou ne pratiqueront pas de pump and dump ; les analystes peuvent lier leurs prédictions à des marchés à règlement public, créant un enregistrement auditable.
C’est la forme naissante de ce qu’on appelle les « médias avec jalonnement » : un type de média qui non seulement adhère au concept d’être lié par des intérêts, mais qui peut aussi en fournir une preuve tangible. Dans ce modèle, la crédibilité ne vient ni de prétentions à la neutralité, ni d’affirmations non fondées, mais d’engagements d’intérêt vérifiables, publics et transparents. Les médias avec jalonnement ne remplaceront pas les autres formes de médias, mais viendront compléter l’écosystème médiatique existant. Ils envoient un nouveau signal : ce n’est plus « croyez-moi, je suis neutre », mais « voici le risque que je suis prêt à prendre, voici comment vous pouvez vérifier que ce que je dis est vrai ».
Robert Hackett prévoit que ce domaine continuera de croître, tout comme les médias de masse du XXe siècle, qui, pour s’adapter à la technologie et aux incitations de l’époque (attirer un public de masse et des annonceurs), affichaient en surface une recherche d’objectivité et de neutralité. Aujourd’hui, l’IA rend la création ou la falsification de n’importe quel contenu extrêmement facile, et ce qui est vraiment rare, ce sont les preuves. Les créateurs capables de faire des engagements vérifiables et de véritablement soutenir leurs affirmations auront donc un avantage.
Utiliser des mécanismes de jalonnement pour augmenter le coût de la falsification, proposition d’introduire un mécanisme de double vérification du contenu
Cette idée innovante a également été approuvée par des acteurs du crypto, qui ont proposé des suggestions.
L’analyste crypto Chen Jian a déclaré que des grands médias aux médias indépendants, les fausses informations pullulent, un même événement pouvant faire l’objet de rebondissements successifs. La raison fondamentale est que le coût de la falsification est faible et les gains élevés. Si l’on considère chaque diffuseur d’information comme un nœud, pourquoi ne pas utiliser le mécanisme de jeu économique POS (Preuve d’Enjeu) de la blockchain pour résoudre ce problème ? Il suggère, par exemple, que chaque nœud doive miser des fonds avant de publier une opinion ; plus le jalonnement est important, plus la confiance est élevée ; et d’autres peuvent recueillir des preuves pour le mettre au défi. Si le défi réussit, le système confisque les fonds misés et récompense le challenger. Bien sûr, ce processus implique également des problèmes de confidentialité et d’efficacité. Actuellement, des solutions comme Swarm Network combinent ZK et IA, protégeant à la fois la vie privée des participants et utilisant l’analyse de données multi-modèles pour aider à la vérification, similaire à la fonction de vérification de la vérité de Grok sur Twitter.
Le KOL crypto Blue Fox estime également que des technologies cryptographiques comme la preuve à divulgation nulle de connaissance (zk) pourraient permettre aux médias ou aux individus de prouver en ligne leur crédibilité, comme signer une « reconnaissance de dette » en ligne, immuable une fois enregistrée sur la blockchain. Mais une simple reconnaissance ne suffit pas, il faut aussi « miser » un certain actif comme garantie, comme de l’ETH, de l’USDC ou d’autres jetons cryptos.
La logique du mécanisme de jalonnement est très directe : si le contenu publié s’avère être une fausse information, l’actif misé est confisqué ; si le contenu est vrai et fiable, l’actif misé est restitué après un certain temps, et peut même recevoir une récompense supplémentaire (comme des jetons émis par le média avec jalonnement ou une part des fonds confisqués aux faussaires). Ce mécanisme crée un environnement qui encourage à dire la vérité. Pour les médias, le jalonnement augmente certes le coût financier, mais il est échangé contre la confiance réelle du public, ce qui est particulièrement important à une époque de prolifération des fausses nouvelles.
Par exemple, un YouTuber publiant une vidéo recommandant un produit devrait « signer une reconnaissance de dette » sur la blockchain Ethereum et miser de l’ETH ou de l’USDC. Si le contenu de la vidéo est inexact, les fonds misés sont confisqués, et les spectateurs peuvent alors avoir confiance en l’authenticité du contenu ; un blogueur recommandant un téléphone portable devrait miser 100 dollars d’ETH et déclarer : « Si la fonction beauté de ce téléphone n’atteint pas l’effet promis, je rembourserai. » Les spectateurs, voyant les fonds misés, se sentiront naturellement plus confiants. Si le contenu est falsifié par IA, le blogueur perdra ses fonds misés.
Pour juger si un contenu est vrai ou faux, Blue Fox suggère d’utiliser un mécanisme de double vérification « communauté + algorithme ». Côté communauté, des utilisateurs ayant droit de vote (devant miser des actifs cryptos) votent on-chain, un jugement de fausseté étant rendu si un certain seuil est dépassé (par exemple 60 %) ; côté assistance algorithmique, une analyse de données aide à vérifier les résultats du vote ; mécanisme d’arbitrage : si l’auteur du contenu conteste la décision, il peut demander l’arbitrage d’un comité d’experts ; si des votants sont surpris à manipuler malicieusement, leurs actifs sont confisqués ; la participation au vote et au comité d’experts est récompensée, les récompenses provenant des fonds confisqués et des jetons du média. De plus, les créateurs de contenu peuvent utiliser la technologie de preuve à divulgation nulle de connaissance pour générer une preuve d’authenticité du contenu à la source, par exemple pour prouver l’origine réelle d’une vidéo.
Pour les personnes ayant des moyens financiers qui tentent d’utiliser le mécanisme de jalonnement pour falsifier, Blue Fox suggère d’augmenter le coût à long terme de la falsification, pas seulement financier, mais aussi en termes de temps, d’historique, de système de réputation et de responsabilité légale. Par exemple, un compte confisqué serait marqué et devrait miser plus de fonds pour publier du contenu à l’avenir ; si un compte est confisqué à plusieurs reprises, la crédibilité de son contenu chuterait considérablement ; les cas graves pourraient même faire face à des poursuites judiciaires.






