# Contexte Articles associés

Le Centre d'actualités HTX fournit les derniers articles et analyses approfondies sur "Contexte", couvrant les tendances du marché, les mises à jour des projets, les développements technologiques et les politiques réglementaires dans l'industrie crypto.

La bonne façon de gérer le contexte de Claude Code : Éviter que plus la session est longue, plus le modèle devient « stupide »

Claude Code a récemment étendu sa fenêtre contextuelle à 1 million de tokens, offrant une capacité accrue pour les tâches complexes. Cependant, une gestion efficace du contexte est cruciale pour maintenir les performances du modèle, évitant la "détérioration contextuelle" (Context Rot) où trop d'informations nuisent à la pertinence. L'article présente plusieurs stratégies clés : - **Continuer** : Envoyer directement un nouveau message dans la même conversation. - **Remonter le temps (Rewind)** : Revenir à un point précédent pour corriger une erreur ou changer d'approche, souvent plus efficace que de simples corrections. - **Nouvelle session (/clear)** : Démarrer une nouvelle conversation avec un résumé manuel des points essentiels, pour un contexte entièrement propre. - **Compression contextuelle (/compact)** : Laisser Claude résumer l'historique pour libérer de l'espace. C'est pratique mais peut être "avec perte" ; des instructions précises guident mieux le résumé. - **Sous-agents (Subagents)** : Déléguer une tâche à un agent qui travaille dans un contexte isolé et ne renvoie que le résultat final, idéal pour les travaux aux nombreux outputs intermédiaires. Le conseil principal est de démarrer une nouvelle session pour une nouvelle tâche. La commande `rewind` est privilégiée pour les corrections, et les sous-agents pour les travaux complexes à outputs éphémères. Bien maîtriser ces outils est essentiel pour optimiser les résultats avec Claude Code.

marsbitIl y a 19 h

La bonne façon de gérer le contexte de Claude Code : Éviter que plus la session est longue, plus le modèle devient « stupide »

marsbitIl y a 19 h

Harness Mince, Compétences Épaisses : La véritable source d'une productivité IA multipliée par 100

Basé sur l'article, l'auteur Garry Tan (PDG de Y Combinator) affirme que la véritable productivité de l'IA ne provient pas des modèles eux-mêmes, mais de la conception systémique qui les entoure. Il introduit le cadre « Thin Harness, Fat Skills » (Harnais mince, Compétences épaisses), qui décompose les applications d'IA en cinq composants clés : 1. **Skill File** : Un document markdown réutilisable qui enseigne à un modèle « comment » accomplir une tâche, comme une méthode invocable avec des paramètres. 2. **Harness** : Une couche logicielle mince qui exécute le modèle, gère les entrées/sorties et applique des contraintes, sans logique métier lourde. 3. **Resolver** : Un système de routage contextuel qui charge la documentation ou les instructions pertinentes au bon moment. 4. **Latent vs. Deterministic** : Une séparation stricte entre le traitement intelligent (jugement, synthèse) et les opérations déterministes fiables (requêtes, calculs). 5. **Diarization** : La capacité du modèle à lire de nombreux documents sur un sujet et à en synthétiser une analyse structurée. L'article illustre ceci avec un exemple concret de matching pour un événement Y Combinator, où le système apprend et s'améliore automatiquement en réécrivant ses propres fichiers de compétences basé sur les retours, sans réécriture de code. La conclusion est que l'avantage décisif (10x à 100x) vient de cette capacité à construire des systèmes qui capitalisent et améliorent continuellement leurs compétences, et non simplement d'utiliser le modèle le plus récent.

marsbit04/13 04:27

Harness Mince, Compétences Épaisses : La véritable source d'une productivité IA multipliée par 100

marsbit04/13 04:27

活动图片