# LLM Articles associés

Le Centre d'actualités HTX fournit les derniers articles et analyses approfondies sur "LLM", couvrant les tendances du marché, les mises à jour des projets, les développements technologiques et les politiques réglementaires dans l'industrie crypto.

La bonne façon de gérer le contexte de Claude Code : Éviter que plus la session est longue, plus le modèle devient « stupide »

Claude Code a récemment étendu sa fenêtre contextuelle à 1 million de tokens, offrant une capacité accrue pour les tâches complexes. Cependant, une gestion efficace du contexte est cruciale pour maintenir les performances du modèle, évitant la "détérioration contextuelle" (Context Rot) où trop d'informations nuisent à la pertinence. L'article présente plusieurs stratégies clés : - **Continuer** : Envoyer directement un nouveau message dans la même conversation. - **Remonter le temps (Rewind)** : Revenir à un point précédent pour corriger une erreur ou changer d'approche, souvent plus efficace que de simples corrections. - **Nouvelle session (/clear)** : Démarrer une nouvelle conversation avec un résumé manuel des points essentiels, pour un contexte entièrement propre. - **Compression contextuelle (/compact)** : Laisser Claude résumer l'historique pour libérer de l'espace. C'est pratique mais peut être "avec perte" ; des instructions précises guident mieux le résumé. - **Sous-agents (Subagents)** : Déléguer une tâche à un agent qui travaille dans un contexte isolé et ne renvoie que le résultat final, idéal pour les travaux aux nombreux outputs intermédiaires. Le conseil principal est de démarrer une nouvelle session pour une nouvelle tâche. La commande `rewind` est privilégiée pour les corrections, et les sous-agents pour les travaux complexes à outputs éphémères. Bien maîtriser ces outils est essentiel pour optimiser les résultats avec Claude Code.

marsbitIl y a 19 h

La bonne façon de gérer le contexte de Claude Code : Éviter que plus la session est longue, plus le modèle devient « stupide »

marsbitIl y a 19 h

$TAO Effondrement : Le triangle impossible du DeAI à travers la discorde interne de Bittensor

L'effondrement du projet Bittensor ($TAO), pilier de l'IA décentralisée (DeAI), a été déclenché par la démission brutale de Covenant AI, l'une de ses équipes de développement les plus importantes. Celle-ci venait pourtant de réussir l'entraînement d'un modèle de langage de 72 milliards de paramètres, un exploit technique coûteux en calcul. La raison de son départ : des accusations sévères contre le fondateur Jacob Steeves. Covenant AI l'accuse d'exercer un contrôle "absolu et dictatorial" sur le réseau, notamment en coupant arbitrairement les récompenses en jetons $TAO de leur sous-réseau sans processus de gouvernance transparent. Cet acte, perçu comme un "débranchement", a rendu non rentable leur investissement massif en puissance de calcul. Cet événement révèle une contradiction fondamentale au cœur du récit DeAI : la concentration du pouvoir. Bien que le réseau soit techniquement décentralisé, le pouvoir de décision sur la répartition des récompenses est détenu par une poignée de validateurs, fortement liés au fondateur. Cela remet en cause la neutralité et la fiabilité du système, sapant la promesse de base : que des récompenses automatiques et impartiales rémunèrent le travail fourni. La chute brutale du prix du $TAO reflète une perte de confiance des investisseurs face à ce risque de gouvernance centralisée. L'incident expose le "triangle impossible" du DeAI : concilier la qualité des modèles (nécessitant des ressources centralisées), une véritable décentralisation neutre, et un système d'incitations anti-tricherie. La crise de Bittensor sert d'avertissement à tout le secteur sur les défis structurels à résoudre.

marsbitHier 09:04

$TAO Effondrement : Le triangle impossible du DeAI à travers la discorde interne de Bittensor

marsbitHier 09:04

Guide de démarrage en période de marché baissier crypto - Deuxième partie : Station de transit de tokens - Échanger des tokens crypto contre des tokens IA

Dans son guide pour entreprendre pendant le marché baissier crypto, l'auteur explore le potentiel des « stations de transfert de tokens » permettant d'échanger des crypto-monnaies contre des tokens d'IA. Ce secteur, bien qu'existant via des plateformes d'API à bas prix, présente deux opportunités sous-estimées : utiliser les crypto-tokens comme moyen de paiement pour l'accès aux modèles d'IA et exporter des modèles chinois abordables (comme Qwen, Kimi, GLM) vers les utilisateurs internationaux. L'article cite en exemple OpenRouter, fondé par un ex-cofondateur d'OpenSea, qui agrège plus de 60 fournisseurs de modèles et accepte les paiements en crypto. Trois modèles émergent : les acteurs mondiaux et réglementés, les plateformes de collaboration et les solutions locales. Le « reverse export » des modèles chinois est particulièrement lucratif en raison de leur faible coût (ex: Qwen3.5 à 0,11$ pour 1M de tokens vs 3$ pour Claude Sonnet) et de leurs performances compétitives. Cependant, des défis persistent : besoins en capital, gestion de la liquidité crypto/fiat, risques juridiques liés à la revente d'API et conformité transfrontalière des données. Malgré ces obstacles, ce business génère des revenus réels basés sur l'usage, sans dépendre de la spéculation.

Odaily星球日报04/10 03:36

Guide de démarrage en période de marché baissier crypto - Deuxième partie : Station de transit de tokens - Échanger des tokens crypto contre des tokens IA

Odaily星球日报04/10 03:36

活动图片