Résumé central : L'entraînement de grands modèles nécessite la construction ou la modernisation de centres de données. Mais les infrastructures centralisées atteignent aujourd'hui une limite physique stricte. Pour améliorer les capacités d'infrastructure, l'IA est utilisée pour créer une plus grande échelle et une production intelligente. Cependant, le contrôle de la puissance de calcul devient un nœud de pouvoir crucial dans l'industrie de l'IA. C'est à ce moment que Gonka est apparu. Le protocole Gonka est un réseau mondial sans autorisation, que n'importe qui peut rejoindre, permettant de router les requêtes de manière programmatique entre des participants distribués. Dans un entretien exclusif avec *Analytics Insight*, Anastasia Matveeva, cofondatrice de Gonka et responsable produit senior, a expliqué comment ils innovent dans l'accès à la puissance de calcul pour construire un écosystème d'IA plus contrôlable et plus sûr.
Question : Le débat public sur l'IA se concentre souvent sur la centralisation des modèles, mais moins sur la centralisation de la puissance de calcul. Pourquoi le contrôle de la puissance de calcul devient-il un nœud de pouvoir clé dans l'industrie de l'IA ? Quels risques cette concentration fait-elle peser sur l'innovation et le marché dans son ensemble ?
Réponse : Le débat public se concentre souvent sur les modèles car ils sont visibles. Mais le véritable cœur du pouvoir se trouve plus en profondeur – la puissance de calcul, la couche fondamentale qui détermine qui peut construire, déployer et étendre les systèmes d'IA.
Le contrôle de la puissance de calcul devient crucial pour des raisons économiques et physiques. Le principal goulot d'étranglement de l'IA moderne n'est plus les algorithmes, mais la capacité d'accéder aux GPU, à l'électricité et à la capacité des centres de données.
L'entraînement de grands modèles nécessite de plus en plus la construction ou la modernisation de centres de données. Pourtant, les infrastructures centralisées atteignent des limites physiques : densité énergétique, contraintes de refroidissement et capacité d'alimentation électrique maximale sur un site unique. L'industrie expérimente des solutions extrêmes – reconception des puces, systèmes de refroidissement et nouvelles sources d'énergie.
Cette concentration a des conséquences systémiques.
Premièrement, elle établit des barrières structurelles à l'innovation. L'accès à la puissance de calcul devient un privilège d'infrastructure, et non une concurrence basée sur les compétences. Les petites équipes, les chercheurs indépendants et même des régions entières sont exclus par les prix, l'espace d'expérimentation se réduit et l'innovation devient conservatrice.
Deuxièmement, la centralisation de la puissance de calcul consolide un modèle d'« extraction de rente ». L'IA a le potentiel de créer l'« abondance » – l'intelligence est intrinsèquement reproductible – mais lorsque l'infrastructure sous-jacente est rare et contrôlée, cette abondance est artificiellement réprimée. Le marché se tourne vers les abonnements, l'effet de lock-in et le pouvoir de fixation des prix, plutôt que vers la baisse des coûts et l'accessibilité généralisée.
Troisièmement, elle introduit une fragilité systémique. Lorsque la puissance de calcul avancée est concentrée entre quelques opérateurs et dans quelques zones géographiques, les perturbations réglementaires, politiques ou physiques affectent l'ensemble de l'écosystème de l'IA. La dépendance devient structurelle, et non optionnelle.
Plus important encore, la puissance de calcul n'est pas neutre. Celui qui contrôle la puissance de calcul décide implicitement de ce qui est faisable, autorisé et économiquement viable. Lorsque ce contrôle est centralisé, la gouvernance de l'IA se forme par défaut, et non par conception.
Le risque n'est pas seulement monopolistique, mais une distorsion à long terme de la trajectoire de développement de l'IA : moins de constructeurs, une diversité d'applications réduite, une innovation matérielle plus lente et une infrastructure incapable de répondre aux ambitions des modèles de nouvelle génération.
Par conséquent, la puissance de calcul doit être considérée comme une infrastructure fondamentale – une architecture capable de s'étendre économiquement et physiquement, essentielle pour l'avenir de l'IA.
Question : De nombreuses plateformes de calcul IA – centralisées ou décentralisées – prétendent être efficaces. Quelles sont les métriques vraiment importantes pour évaluer l'efficacité d'un système de calcul IA ? Où ces modèles rencontrent-ils généralement des limites pratiques ?
Réponse : L'efficacité du calcul est souvent utilisée comme un concept marketing. En réalité, seules quelques métriques spécifiques comptent vraiment, couvrant les performances côté utilisateur, l'efficacité opérationnelle des fournisseurs et la structure d'incitation qui régit.
Pour l'utilisateur, l'efficacité signifie vitesse et transparence des coûts.
La vitesse fait référence à la latence sous charge réelle. Les hubs centralisés ont généralement un avantage grâce à la colocalisation physique. Mais si la blockchain n'agit que comme une couche de sécurité sans participer au chemin d'exécution en temps réel, une architecture décentralisée peut atteindre des performances similaires. Tant que les requêtes sont traitées hors chaîne, le protocole lui-même n'ajoute pas de latence.
La transparence des coûts est également cruciale. Bien que le « coût par token » soit un KPI courant, l'intégrité du modèle manque souvent de transparence. Dans les environnements centralisés, le produit peut être une boîte noire. En période de pointe, les fournisseurs peuvent ajuster la configuration du modèle pour maintenir la rentabilité, changements souvent invisibles mais pouvant affecter la qualité de la sortie. Une véritable efficacité exige que la tarification reflète une précision de calcul constante.
Pour le fournisseur, l'efficacité est un équilibre entre l'utilisation du GPU et l'élasticité.
Les opérateurs centralisés excellent en termes d'utilisation, les GPU fonctionnant presque à pleine capacité en environnement colocalisé, mais manquent d'élasticité, supportant des coûts d'inactivité lors des creux de demande.
Les réseaux décentralisés sacrifient dans une certaine mesure l'utilisation pour gagner en élasticité, mais doivent minimiser la surcharge de consensus et de validation, permettant à la puissance de calcul d'être redistribuée entre différentes charges de travail selon la demande.
Le plus crucial est la conception des incitations.
Lorsque les revenus sont liés à des charges de travail IA plus rapides, moins chères et vérifiables, l'optimisation devient structurelle. Les participants sont incités à améliorer l'efficacité matérielle, réduire la latence, expérimenter des puces dédiées.
Inversement, si les récompenses ou le poids de gouvernance sont principalement liés à la détention de capital, l'orientation de l'optimisation s'écarte des performances de l'infrastructure, et l'inefficacité se pérennise.
Dans Gonka, l'efficacité est intégrée au niveau du protocole : presque 100 % de la puissance de calcul est utilisée pour de réelles charges de travail IA (principalement l'inférence). Les récompenses et le poids de gouvernance sont basés sur la contribution mesurée en puissance de calcul, et non sur la détention de capital.
La véritable efficacité n'émerge que lorsque la majorité de la puissance de calcul est utilisée pour des tâches réelles, que les incitations récompensent les contributions vérifiées et que les frais généraux internes n'augmentent pas de manière incontrôlable avec la taille du réseau.
Question : Les réseaux de calcul IA décentralisés peuvent-ils vraiment utiliser la majeure partie de leur puissance de calcul pour de réelles charges de travail IA, plutôt que pour maintenir le réseau lui-même ? Quels sont les choix architecturaux clés ?
Réponse : C'est possible – mais seulement si la surcharge est considérée comme une contrainte architecturale centrale, et non comme un sous-produit inévitable de la décentralisation.
La plupart des réseaux de calcul décentralisés utilisent une part importante de ressources pour maintenir le consensus et la sécurité, plutôt que pour les charges de travail IA. C'est parce que le travail productif et les mécanismes de sécurité sont séparés, entraînant des calculs en double.
Pour utiliser la majeure partie de la puissance de calcul pour de vraies tâches IA, plusieurs principes clés sont nécessaires :
Premièrement, les mécanismes de sécurité et de mesure doivent être « limités dans le temps », et non continus. Les mécanismes de preuve doivent se concentrer sur des cycles courts et clairs, plutôt que de consommer des ressources en continu. Dans Gonka, cela est réalisé via les Sprints (cycles structurés et limités dans le temps). En dehors de ces cycles, les ressources matérielles peuvent être utilisées pour de vraies charges de travail IA.
Deuxièmement, réduire la duplication grâce à une validation sélective et basée sur la réputation, plutôt qu'une validation par réplication complète de chaque tâche. Le travail des nouveaux participants peut être validé à 100 % ; à mesure que la réputation s'établit, le taux de validation peut être réduit à environ 1 %. La puissance de calcul globale dédiée à la validation peut être maintenue en dessous d'environ 10 %, tout en préservant la sécurité.
Les participants tentant de tricher ne reçoivent aucune récompense, rendant la tricherie économiquement irrationnelle.
Troisièmement, les récompenses et le poids de gouvernance doivent être liés à la contribution vérifiée en puissance de calcul, et non à la détention de capital.
Lorsque le consensus est léger, la validation adaptive et les incitations alignées sur le calcul productif, le calcul décentralisé peut véritablement servir des charges de travail réelles.
Question : Les réseaux de calcul IA décentralisés mettent souvent l'accent sur la participation ouverte, mais les exigences d'infrastructure peuvent créer une barrière à l'entrée élevée. Comment de tels systèmes peuvent-ils passer à l'échelle tout en restant accessibles à des participants ayant des niveaux de puissance de calcul très différents ?
Réponse : Bien que les réseaux décentralisés visent à abaisser les barrières à l'entrée de l'infrastructure IA, la survie à long terme nécessite également de rivaliser avec les fournisseurs centralisés et de répondre aux demandes du monde réel. Les contraintes matérielles se résument finalement à une exigence centrale : être capable d'héberger des modèles ayant une réelle demande sur le marché.
Pour passer à l'échelle tout en maintenant l'accessibilité, plusieurs principes sont cruciaux.
Premièrement, un accès à l'infrastructure sans autorisation. Tout propriétaire de GPU – qu'il s'agisse d'un opérateur avec un seul appareil ou d'un grand centre de données – devrait pouvoir rejoindre le réseau sans processus d'approbation ni mécanisme de garde centralisé. Cela élimine les barrières structurelles à l'entrée.
Deuxièmement, des récompenses et une influence proportionnelles basées sur la puissance de calcul vérifiée. Dans un modèle où le poids est basé sur la puissance de calcul, une contribution computationnelle plus élevée entraîne naturellement une plus grande part des tâches, des récompenses et du poids de gouvernance. Cela ne rend pas les petits participants totalement égaux aux grands – et ce n'est pas le but. La clé est l'uniformité des règles : l'influence est déterminée par la contribution computationnelle réelle, et non par le capital, les mécanismes de délégation ou l'effet de levier financier.
Troisièmement, le rôle des pools de puissance de calcul (Pools). Dans les systèmes ayant des exigences d'infrastructure réelles, l'agrégation de ressources apparaît naturellement. Les pools permettent aux petits participants de consolider leurs ressources, réduire la volatilité et participer à des charges de travail plus importantes.
Cependant, l'architecture doit éviter d'accorder des avantages structurels aux grands pools ou d'inciter à une concentration excessive de l'influence. Les pools devraient exister comme des outils de coordination, et non comme des mécanismes de re-centralisation.
Finalement, la mise à l'échelle des réseaux de calcul IA décentralisés ne devrait pas signifier l'augmentation des barrières à l'entrée. Elle devrait signifier l'augmentation de la capacité globale de calcul tout en maintenant des règles de participation neutres, transparentes et cohérentes, et en préservant la valeur économique réelle créée par le réseau pour ses utilisateurs. L'accès ouvert, les mécanismes économiques proportionnels et un degré de concentration contrôlé déterminent si un système reste décentralisé en grandissant.
Question : Pourquoi la question du calcul IA décentralisé devient-elle particulièrement urgente en ce moment ? Si ce problème n'est pas résolu dans les prochaines années, quelles seront selon vous les conséquences à long terme pour l'industrie ?
Réponse : Cette urgence reflète le fait que l'IA passe d'une phase expérimentale à une phase d'infrastructure.
Comme mentionné précédemment, la puissance de calcul est devenue un goulot d'étranglement physique. La capacité d'extension est de plus en plus contrainte non seulement par le capital, mais aussi par l'énergie, la densité de puissance et les limites des centres de données. Simultanément, l'accès aux GPU avancés et aux infrastructures hyperscale est influencé par des contrats à long terme, la concentration des entreprises et les priorités stratégiques nationales.
Cette combinaison approfondit les asymétries structurelles. Les entités contrôlant des infrastructures à grande scale consolident constamment leur avantage, tandis que les barrières à l'entrée pour les petites équipes et les régions émergentes continuent d'augmenter. Le risque n'est pas seulement la concentration du marché, mais aussi l'élargissement d'un fossé mondial en matière de puissance de calcul.
Si cette tendance se poursuit, l'innovation dépendra davantage de la capacité d'accès à l'infrastructure que des idées elles-mêmes. Le marché de l'IA pourrait se solidifier en un modèle basé sur la rente, où l'intelligence est accessible selon les conditions fixées par quelques fournisseurs dominants.
Par conséquent, le calcul décentralisé n'est pas un débat idéologique. C'est une réponse à des contraintes structurelles visibles – et un choix qui façonnera l'architecture à long terme de l'industrie de l'IA.
Question : Les agents IA (AI agents) réservent de plus en plus de ressources GPU de manière autonome. Comment l'architecture de Gonka prend-elle en charge une intégration transparente pour permettre une économie de calcul IA auto-régulée ?
Réponse : L'essor de l'IA agentisée signifie que les systèmes prennent de plus en plus de décisions autonomes – y compris l'acquisition de ressources de calcul. Dans un tel modèle, la puissance de calcul devient un actif central dans les interactions économiques entre agents.
Un tel écosystème nécessite un accès programmatique, des mécanismes économiques transparents et de la fiabilité.
Premièrement, l'intégration doit être transparente. Gonka fournit une API compatible OpenAI, permettant à la plupart des agents IA de se connecter sans modifier leur architecture ou flux de travail.
Deuxièmement, l'économie de la puissance de calcul doit être transparente et pilotée par le système. La tarification s'ajuste dynamiquement en fonction de la charge du réseau, et n'est pas fixée par contrat. Dans les premières phases du réseau, le coût de l'inférence est conçu pour être significativement inférieur à celui des fournisseurs centralisés, car les participants sont rémunérés non seulement par les frais des utilisateurs, mais aussi par des récompenses similaires à un mécanisme d'émission de type Bitcoin, proportionnelles à la capacité de calcul disponible.
Cette structure permet aux agents IA fonctionnant avec un budget d'exécuter efficacement leurs charges de travail. Au fur et à mesure que le réseau évolue, les paramètres de tarification resteront soumis à la gouvernance communautaire.
Troisièmement, la fiabilité est renforcée au niveau du protocole. Dans les environnements centralisés, la fiabilité provient de la certification et des accords de niveau de service (SLA). Dans l'infrastructure décentralisée, la fiabilité est soutenue par le code open source, des audits tiers et des preuves de calcul achevé et de performance du réseau mesurables sur la chaîne.
Ces éléments permettent ensemble aux agents IA de demander de la puissance de calcul et d'allouer un budget dans un cadre transparent. De cette manière, Gonka fournit les bases infrastructurelles pour une économie de calcul IA auto-régulée, permettant aux agents non seulement d'exécuter des tâches, mais aussi d'optimiser dynamiquement les ressources dont ils dépendent.
Question : L'incertitude réglementaire entourant les technologies décentralisées s'intensifie. Comment Gonka aborde-t-il de manière proactive les problèmes de conformité liés à la souveraineté des données et à la gouvernance de l'IA dans un marché mondial fragmenté ?
Réponse : Dans le contexte du calcul décentralisé, le principal défi est de trouver un équilibre entre l'ouverture du réseau et les exigences variées et évolutives des différentes juridictions.
Gonka est un réseau mondial sans autorisation – n'importe qui peut rejoindre, et les requêtes sont routées de manière programmatique entre des participants distribués. À ce stade, les utilisateurs ne peuvent pas contrôler de manière déterministe la localisation géographique où leur requête est traitée. Pour les cas d'usage ayant des exigences strictes de résidence des données ou de traitement régional, cela peut actuellement être une limitation.
Cependant, d'un point de vue confidentialité, cette architecture réduit la centralisation des données. Chaque requête est traitée par un participant choisi aléatoirement et routée indépendamment, empêchant l'accumulation d'un historique utilisateur complet. Jusqu'à présent, ce modèle a couvert la plupart des cas d'usage pratiques tout en permettant au réseau de s'étendre.
À mesure que le réseau grandit et que les demandes du marché deviennent plus claires, le mécanisme de gouvernance permet aux participants de proposer et de voter des changements architecturaux pour supporter des exigences réglementaires spécifiques. Ces changements pourraient inclure : des sous-réseaux dédiés avec des critères de participation supplémentaires, des contraintes opérationnelles pour des juridictions spécifiques, ou des garanties au niveau matériel pour les charges de travail d'entreprise, comme les environnements d'exécution de confiance (TEE).
La décentralisation n'élimine pas les obligations de conformité. Elle offre une flexibilité architecturale. La conception de Gonka permet au réseau d'évoluer en fonction des demandes réglementaires et du marché, plutôt que d'être verrouillé dès le départ dans un seul modèle de conformité.







