Les 23 principaux défauts des marchés prédictifs

marsbitPublié le 2026-02-27Dernière mise à jour le 2026-02-27

Résumé

L'auteur Alexander Lin, un influenceur crypto, dresse une liste de 23 défauts structurels des marchés prédictifs, les présentant comme fondamentalement non-viables pour une adoption financière massive. Les principaux problèmes incluent une faible efficacité capitalistique (pas d'effet de levier, capital immobilisé), une rotation du capital structurellement déficiente et des pools de liquidités (LP) dégénérant à l'expiration. L'absence de hedgeurs naturels et la sélection adverse croissante à l'approche du règlement pénalisent les teneurs de marché. D'autres défis majeurs sont le piège de liquidité au lancement, l'absence de demande endogène, et le manque de cadre pour l'allocation d'actifs institutionnels. La liquidité est constamment réinitialisée après chaque règlement et dépend de subventions non durables. Les risques opérationnels sont nombreux : qualité de l'information, création excessive de marchés, risque d'oracle, design des questions manipulable et risque de manipulation des marchés eux-mêmes. La fragmentation réglementaire et le manque d'outils financiers complexes complètent ce tableau difficile, créant un dilemme de l'innovateur pour les acteurs existants.

Auteur : Alexander Lin, KOL crypto

Compilation : Felix, PANews

Les jugements sur les marchés prédictifs ont toujours été partagés, certains les considérant comme une nouvelle infrastructure capable de bouleverser les institutions traditionnelles, tandis que d'autres estiment qu'il est difficile pour les marchés prédictifs de devenir véritablement une partie intégrante de la finance grand public. Récemment, le KOL crypto Alexander Lin a publié un article listant 23 défauts des marchés prédictifs. Voici les détails.

1. Faible efficacité du capital

Les marchés prédictifs exigent une couverture intégrale et n'autorisent pas l'effet de levier. Comparé aux contrats perpétuels (Perps) qui exigent une marge de 5 à 10 % de la valeur notionnelle, l'efficacité du capital des marchés prédictifs est 10 à 20 fois inférieure. Ceci sans tenir compte du rendement nul du capital immobilisé et de l'impossibilité de croiser les marges entre les positions.

2. La rotation du capital est structurellement compromise

Le capital étant immobilisé pendant toute la durée du contrat et aboutissant à un résultat binaire, sa rotation est structurellement compromise. Une fois le contrat réglé, la position devient directement obsolète (expire), il n'y a donc aucune efficacité du bilan, et les actifs des market makers ne peuvent pas bénéficier de l'effet cumulatif des intérêts. Les mêmes fonds utilisés pour le trading de comptes perpétuels sur la même période généreraient une rotation plus élevée (5 à 10 fois) : réutilisation de l'inventaire, report des positions et opérations de couverture continues.

3. L'inventaire du LP est fondamentalement défectueux

Lors du règlement, la moitié des actifs du pool de liquidités est condamnée à devenir nulle. Par exemple, un pool au comptant se rééquilibre entre des actifs qui conservent leur valeur ; pour les marchés prédictifs, il n'y a ni rééquilibrage, ni valeur résiduelle, il ne reste que « l'effondrement binaire » du perdant.

4. Absence de couverture naturelle

Contrairement aux matières premières, aux taux d'intérêt ou aux devises, il n'existe pas de « couverture naturelle » fournissant une liquidité inverse sur les marchés prédictifs. Aucune entité ou trader n'a un besoin économique naturel de se placer à l'opposé du risque d'événement. Les market makers sont confrontés à une pure sélection adverse, sans contrepartie structurelle. C'est un obstacle fondamental à la mise à l'échelle.

5. La sélection adverse s'intensifie à l'approche du règlement

À l'approche du règlement, la sélection adverse s'intensifie. Les traders disposant d'un avantage informationnel ou d'informations plus précises peuvent acheter le côté gagnant à un prix plus avantageux auprès des perdants qui fixent encore leurs prix sur la base d'informations a priori obsolètes. Cette attrition est structurelle et s'aggrave avec le temps.

6. Le problème de démarrage : Piège de liquidité structurel

Les nouveaux marchés n'ont pas de liquidité, ce qui décourage les traders informés d'entrer (de peur de subir des pertes dues au slippage) ; et tant que les prix ne sont pas précis, aucun autre trader n'apparaîtra. Les marchés de niche (long tail) avortent souvent avant même d'avoir commencé, et aucune subvention ne peut résoudre ce problème.

7. Aucune boucle de demande endogène

Chaque dollar de volume dépend d'une attention externe (élections, actualités, événements sportifs), sans aucun soutien entre les événements. En revanche, les contrats perpétuels créent une roue interne : le trading génère des finance rates, les finance rates créent des opportunités d'arbitrage, et l'arbitrage attire plus de capitaux.

8. Déconnexion de l'allocation d'actifs institutionnelle

Les marchés prédictifs ne sont pas liés à la prime de risque, au rendement des positions ou à l'exposition à des facteurs. Le capital institutionnel ne dispose pas de cadre systématique pour allouer ou gérer le risque de ces positions à grande échelle. Ces marchés ne s'intègrent dans aucun langage ou stratégie standard de construction de portefeuille, et ne peuvent donc pas véritablement passer à l'échelle.

9. La liquidité est remise à zéro à chaque règlement

La liquidité est réinitialisée à zéro après chaque règlement et doit être reconstruite à partir de zéro. L'open interest (OI) et la profondeur accumulés au fil du temps dans les contrats perpétuels sont structurellement impossibles à réaliser sur les marchés prédictifs.

10. Une prospérité artificielle dopée aux subventions

Les subventions sont la seule raison pour laquelle le spread acheteur-vendeur n'est pas durablement incontrôlable. Dès que les incitations s'arrêtent, la liquidité du carnet s'effondre. La liquidité « achetée » par des pots-de-vin est une structure de marché intrinsèquement défaillante et court-termiste.

11. Le paradoxe volume/qualité de l'information

Les plateformes profitent du volume (par exemple, « Nous avons besoin de volume de pari ! ») et non de la précision, tandis que les régulateurs ont besoin de l'utilité prédictive pour justifier l'existence de ces plateformes. Ce compromis conduit à des décisions de produit/fonctionnalité sous-optimales.

12. La précision devient une illusion

Sur les marchés très suivis, les participants marginaux sans avantage informationnel suivent simplement le consensus public, ce qui fait que les prix reflètent ce que les gens « croient déjà », plutôt que de valoriser des signaux dispersés. La précision devient une illusion.

13. La création de marché sans restriction génère du bruit

Lorsque la mise en place est gratuite, la liquidité et l'attention sont dispersées sur des milliers de marchés. L'impératif de croissance est directement opposé à l'impératif de curation.

14. La conception des questions peut être un vecteur d'attaque

La personne qui rédige la question contrôle les critères de détermination du résultat final. Il n'y a ni processus de rédaction neutre, ni incitation à garantir la précision de la question, et aucun recours en cas d'exploitation de failles.

15. Risque lié à l'oracle

Les oracles décentralisés déterminent la vérité par le poids des jetons. Lorsque la capitalisation boursière de l'oracle est inférieure à la valeur des fonds qu'il garantit (verrouillés), la manipulation devient une transaction rationnelle. Le règlement centralisé est quant à lui confronté au risque de capture ou de défaillance de l'opérateur.

16. Volume notionnel gonflé

Les volumes rapportés ne sont pas ajustés en fonction du prix. 1$ de volume à un prix de 0,90$ est totalement différent de 1$ de volume à un prix de 0,50$. Le volume réel de transfert de risque est surestimé d'un ordre de grandeur, mais tout le monde cite ce nombre gonflé.

17. Réflexivité à grande échelle

Lorsque les marchés prédictifs deviennent suffisamment importants, les prédictions à haute probabilité (par exemple >90%) modifient elles-mêmes le comportement des participants concernés. Cette logique de « découverte de la vérité » a des limites structurelles.

18. Risque de crédibilité inter-plateformes

Si le même événement est réglé différemment sur différentes plateformes, toute l'industrie paraît peu fiable. La crédibilité est partagée, et les divergences entre les plateformes créent une valeur attendue globalement négative.

19. Manipulation du méta-marché

Les traders peuvent manipuler l'événement sous-jacent dans la réalité (marché primaire) pour sécuriser leurs positions sur le marché prédictif (marché secondaire). Aucune limite de position ou régulation efficace n'a été mise en œuvre à ce jour.

20. Risque de manipulation

L'absence de limites de position et une application limitée de la régulation contre la manipulation signifient qu'un seul portefeuille peut influencer un marché peu profond et profiter de cette volatilité pour trader à contre-courant, sans aucune conséquence (absence de responsabilité). Ce problème est particulièrement grave sur Polymarket comparé à Kalshi.

21. Absence d'outils financiers complexes

Il n'y a pas de structure à terme, d'ordres conditionnels ou de composabilité. À l'exception du résultat binaire unique, toute la boîte à outils des produits dérivés est absente, ce qui empêche l'entrée des institutions professionnelles.

22. Fragmentation réglementaire

Avec le durcissement de la régulation, les différences entre les niveaux fédéral et des États forceront la fragmentation de la liquidité. Lorsque les marchés sont divisés en pools de participants distincts, la fonction de découverte des prix s'effondre.

23. Le dilemme de l'innovateur

Les géants existants n'ont aucune incitation à repenser l'architecture. Si les volumes continuent de croître et que les barrières réglementaires se forment, toute modification architecturale deviendra plus coûteuse. C'est le classique dilemme de l'innovateur.

Lecture connexe : Polymarket vs Kalshi, qui est le roi des marchés prédictifs ?

Questions liées

QQuel est le principal problème d'efficacité des capitaux dans les marchés de prédiction par rapport aux contrats perpétuels ?

ALes marchés de prédiction exigent une garantie à 100% sans effet de levier, ce qui les rend 10 à 20 fois moins efficaces en capital que les contrats perpétuels qui ne nécessitent que 5 à 10% de marge sur la valeur notionnelle.

QPourquoi la liquidité des marchés de prédiction est-elle structurellement déficiente selon l'article ?

ALors du règlement, la moitié des actifs du pool de liquidité est vouée à tomber à zéro, contrairement aux pools spot qui se rééquilibrent entre actifs conservant de la valeur.

QComment l'absence de 'hedgeurs naturels' affecte-t-elle les marchés de prédiction ?

AIl n'existe pas d'entités ayant un besoin économique naturel de prendre le contre-pied du risque événementiel, ce qui expose les market makers à une pure sélection adverse sans contrepartie structurelle.

QQuel est le dilemme concernant la qualité de l'information dans ces marchés ?

ALes plateformes profitent du volume de transactions plutôt que de la précision, tandis que les régulateurs exigent une utilité prédictive, créant un conflit d'intérêts dans les décisions produit.

QPourquoi les marchés de prédiction sont-ils incompatibles avec l'allocation d'actifs institutionnelle ?

AIls ne sont pas liés aux prime de risque, rendements positionnels ou expositions factorielles, et n'entrent dans aucun cadre systématique de gestion de risque ou de construction de portefeuille standard.

Lectures associées

Ce PDG de la Finance Choisit Solana Plutôt Que Bitcoin — Voici Pourquoi

Le PDG du secteur financier Raoul Pal a exprimé une préférence nette pour Solana par rapport au Bitcoin, lors de l'événement Consensus 2026. Sa position ne relève pas d'une simple comparaison d'actifs mais d'une conviction sur l'avenir de la cryptographie à l'ère de l'intelligence artificielle. Il estime que l'industrie se dirige vers une phase dominée par les réseaux à haute vitesse et faible coût, mieux adaptés aux activités de masse, plutôt que par le rôle de réserve de valeur du Bitcoin. Selon lui, Solana, avec son débit élevé et ses faibles frais de transaction, est idéal pour les microtransactions entre machines, les activités basées sur l'IA et les interactions DeFi rapides. Pal prédit par ailleurs que d'ici cinq ans, les agents IA représenteront 60% des utilisateurs de la finance décentralisée (DeFi), surpassant les utilisateurs humains. Cette vision d'un futur où les transactions fréquentes et automatisées seront cruciales explique son choix en faveur de Solana pour capturer les opportunités de croissance. Bien qu'il soit improbable que Solana surpasse Bitcoin en termes de taille à court terme, cette perspective s'inscrit dans un thème majeur de la conférence, centré sur la convergence entre l'IA, la DeFi et l'infrastructure institutionnelle. D'autres intervenants, comme Arthur Hayes, ont également souligné la nature distincte de la cryptographie par rapport aux systèmes traditionnels.

bitcoinistIl y a 10 h

Ce PDG de la Finance Choisit Solana Plutôt Que Bitcoin — Voici Pourquoi

bitcoinistIl y a 10 h

GensynAI : Ne laissez pas l'IA répéter les erreurs d'Internet

Au cours des derniers mois, l'essor de l'IA a attiré de nombreux talents de la cryptographie. Une question centrale émerge : la blockchain peut-elle faire partie de l'infrastructure de l'IA ? Gensyn se distingue en s'attaquant non pas aux applications, mais au cœur du développement de l'IA : **l'entraînement des modèles**. Le projet vise à organiser les ressources GPU mondiales dispersées en un réseau ouvert d'entraînement d'IA. Les développeurs peuvent soumettre des tâches, les nœuds fournissent la puissance de calcul, et le réseau vérifie les résultats avant de distribuer les incitations. L'enjeu dépasse la simple décentralisation : il s'agit de contrer la **concentration croissante des ressources de calcul** entre les mains de quelques géants, qui deviennent un goulot d'étranglement pour l'innovation. Gensyn propose ainsi une nouvelle façon d'organiser les ressources. Premièrement, il opère au niveau de l'infrastructure fondamentale, la couche la plus exigeante techniquement et en ressources. Deuxièmement, il offre un modèle de collaboration plus ouvert, permettant une meilleure utilisation des GPU inactifs et une réduction potentielle des coûts. Troisièmement, sa technologie de vérification probabiliste des résultats et de coordination des nœuds constitue un véritable avantage technique. Enfin, il répond à une demande réelle et croissante du marché, évitant le piège des récits sans utilité pratique. En somme, Gensyn incite la convergence entre la cryptographie (expertise en coordination et incitations mondiales) et l'IA (besoins massifs en ressources). Son ambition est de transformer l'entraînement de l'IA en un système plus ouvert et accessible, au-delà du contrôle exclusif des grands acteurs, posant les bases d'une infrastructure essentielle pour l'ère de l'IA.

marsbitIl y a 11 h

GensynAI : Ne laissez pas l'IA répéter les erreurs d'Internet

marsbitIl y a 11 h

Pourquoi la Chine se développe-t-elle si rapidement en IA ? La réponse se cache dans les laboratoires

L'auteur, après une visite dans des laboratoires d'IA chinois de premier plan, explore les raisons du développement rapide de l'IA en Chine. Il constate que l'écosystème chinois se distingue de celui des États-Unis par son approche organisationnelle : moins de concepts, plus de modèles concrets ; moins d'importance accordée aux vedettes individuelles, plus au travail d'équipe ; et une forte préférence pour maîtriser en interne la pile technologique plutôt que de dépendre de services externes. La culture de travail, valorisant l'humilité, l'exécution et l'ingénierie rapide, est bien adaptée à la construction de grands modèles de langage. Une grande partie des contributeurs clés sont des étudiants, intégrés directement aux équipes, apportant un regard neuf et une forte capacité d'adaptation. L'accent est mis sur l'amélioration itérative et l'optimisation plutôt que sur la recherche "de 0 à 1". Les scientifiques chinois se montrent très concentrés sur la construction technique, moins sur les débats philosophiques ou économiques autour de l'IA. L'écosystème industriel présente également des différences : une demande précoce en IA (ressemblant plus au marché du cloud qu'au SaaS), une forte influence des modèles comme Claude sur les développeurs, et une mentalité répandue de "contrôle technologique" poussant de nombreuses grandes entreprises (plateformes, hardware) à développer leurs propres modèles fondateurs, souvent en open source par pragmatisme. Le soutien gouvernemental existe mais est décentralisé, l'industrie des données est moins mature qu'en Occident, et l'accès aux puces Nvidia est une contrainte majeure. L'auteur conclut que la Chine développe sa propre voie, marquée par une culture de construction, un esprit d'écosystème collaboratif et un pragmatisme profond. Cette approche, différente de la course aux sommets menée par le capital et les "stars" aux États-Unis, fait de la compétition mondiale en IA une rivalité de capacités organisationnelles, d'écosystèmes développeurs et d'exécution industrielle. Il exprime un souhait pour une écologie open source mondiale florissante, tout en notant les défis géopolitiques actuels.

marsbitIl y a 13 h

Pourquoi la Chine se développe-t-elle si rapidement en IA ? La réponse se cache dans les laboratoires

marsbitIl y a 13 h

3 ans, 5 fois la valeur, la renaissance d'une verrerie centenaire

D'après CRU, la demande de fibre optique pour les centres de données IA a augmenté de 75,9 % sur un an, et l'écart entre l'offre et la demande s'est creusé de 6 % à 15 %. Les prix des fibres ont plus que triplé en quelques mois, révélant une capacité de production insuffisante. Cela explique les investissements massifs de NVIDIA chez Corning, ainsi que chez Lumentum et Coherent, pour un total de 45 milliards de dollars, visant à sécuriser la chaîne d'approvisionnement optique (lasers, puces photoniques, fibres). Corning, une entreprise de verrerie fondée en 1851, a vu son cours de bourse multiplié par plus de 3 en un an, atteignant une capitalisation de 160 milliards de dollars. Cette renaissance est portée par les infrastructures IA. La fibre optique est devenue le « nerf » des centres de données IA, avec une consommation 5 à 10 fois supérieure aux serveurs traditionnels. La transition du cuivre vers la lumière (interconnexions optiques, CPO) est nécessaire pour les débits élevés (au-delà de 800G) et pour réduire la consommation d'énergie. Corning se distingue par sa technologie de fibres spécialisées à très faible atténuation et haute densité, cruciales pour l'IA. Son activité "Enterprise" (centres de données), désormais plus de 40% de ses revenus en communication optique, connaît une croissance explosive, soutenue par des contrats pluriannuels avec Meta, NVIDIA et d'autres géants. Bien que ne détenant pas la plus grande part de marché mondiale de la fibre, Corning tire parti de décennies de R&D et d'un savoir-faire matériel de pointe, notamment dans le domaine émergent du CPO (Co-Packaged Optics). La pénurie et la hausse des prix profitent à tout le secteur, comme en témoignent les résultats des concurrents chinois. Le rythme de déploiement du CPO par NVIDIA et l'identité des autres grands clients non divulgués de Corning sont des catalyseurs clés pour son avenir. Des technologies disruptives comme la fibre à cœur creux pourraient également remodeler le paysage à plus long terme. Après une forte appréciation boursière, l'exécution des commandes et le respect des délais seront désormais plus importants que le récit de croissance lui-même.

marsbitIl y a 13 h

3 ans, 5 fois la valeur, la renaissance d'une verrerie centenaire

marsbitIl y a 13 h

Trading

Spot
Futures
活动图片