Note de la rédaction : Alors que la plupart des gens voient encore l'IA comme une fenêtre de chat plus intelligente, Garry Tan, le PDG actuel de Y Combinator, s'efforce déjà d'en faire un système d'exploitation personnel.
La structure fondamentale de la productivité individuelle à l'ère de l'IA est en train de changer : les modèles ne sont que des moteurs. Ce qui génère réellement des intérêts composés, c'est tout un système construit autour des connaissances personnelles, des flux de travail, du contexte et du jugement de chacun.
Dans ce système, chaque réunion, chaque livre, chaque e-mail, chaque relation n'est plus une information isolée, mais est continuellement intégrée dans un « second cerveau » structuré. Chaque tâche récurrente ne dépend plus non plus d'un prompt temporaire, mais est abstraite en une « skill » réutilisable, et est constamment itérée dans les travaux ultérieurs. En d'autres termes, l'IA ne fait pas qu'aider à accomplir des tâches ; elle aide l'individu à « productiser », systématiser et « infrastructuriser » sa propre façon de travailler.
Plus important encore, l'auteur propose une voie personnelle différente des outils d'IA centralisés : la compétitivité future n'appartiendra peut-être pas seulement à ceux qui savent utiliser l'IA, mais à ceux qui, autour de leur vie et de leur travail réels, parviennent à entraîner un système d'IA à intérêts composés. Les chatbots donnent des réponses, les moteurs de recherche fournissent des informations, mais un véritable système d'IA personnel se souviendra de votre contexte, comprendra votre situation, héritera de votre jugement et deviendra plus fort à chaque utilisation.
C'est aussi là que réside le caractère le plus inspirant de cet article : la valeur de l'IA ne réside pas dans ce qu'elle génère une fois, mais dans sa capacité à devenir un système nerveux qui s'accumule, se connecte et s'améliore en permanence. Pour l'individu, c'est peut-être là le véritable point de départ d'un « mode de travail natif de l'IA ».
Voici l'article original :
Les gens me demandent toujours pourquoi je passe mes soirées à écrire du code, jusqu'à 2 heures du matin. J'ai un travail, et un travail exigeant – je suis le PDG de Y Combinator. Nous aidons chaque année des milliers d'entrepreneurs à réaliser leur rêve : créer des startups qui génèrent réellement des revenus et connaissent une croissance rapide.
Ces cinq derniers mois, l'IA m'a redonné le goût de construire. Fin de l'année dernière, les outils étaient devenus suffisamment bons pour que je recommence à créer de mes mains. Pas des projets jouets, mais de vrais systèmes capables de croître de manière exponentielle. Je veux vous montrer par des exemples concrets à quoi cela ressemble lorsque vous cessez de voir votre IA personnelle comme une fenêtre de chat, mais comme un système d'exploitation. Je rends ces choses open source et j'écris des articles comme celui-ci parce que j'espère que vous pourrez aussi accélérer avec moi.
Ceci fait partie d'une série : « Fat Skills, Fat Code, Thin Harness » présente l'architecture centrale ; « Resolvers » parle des tables de routage intelligentes ; « The LOC Controversy » discute de la façon dont chaque technicien peut s'amplifier de 100 à 1000 fois ; « Naked models are stupider » affirme que les modèles ne sont que des moteurs, pas la voiture entière ; et le « skillify manifesto » explique pourquoi LangChain a levé 160 millions de dollars mais ne vous a donné qu'un rack de squat et des haltères sans programme d'entraînement, tandis que cet article vous donne le programme d'entraînement dont vous avez vraiment besoin.
Ce livre qui « me lit à l'envers »
Le mois dernier, je lisais « When Things Fall Apart » de Pema Chödrön. Ce livre de 162 pages et 22 chapitres parle de la vision bouddhiste de la souffrance, du sentiment d'être déraciné et du lâcher-prise. Un ami me l'a recommandé pendant une période difficile.
J'ai demandé à mon IA de faire un « book mirror » (miroir de livre).
Concrètement, cela signifie : le système a extrait le contenu des 22 chapitres du livre, puis pour chaque chapitre, il a lancé un sous-agent pour faire deux choses simultanément : résumer la pensée de l'auteur, et cartographier chaque point sur ma vie réelle.
Pas des généralités vagues du style « cela s'applique aussi aux leaders », mais des correspondances très spécifiques. Il connaît mon contexte familial : des parents immigrés, mon père venant de Hong Kong et de Singapour, ma mère de Birmanie. Il connaît mon contexte professionnel : je gère YC, je construis des outils open source, je conseille des milliers de fondateurs. Il sait ce que j'ai lu récemment, à quoi je pense à 2 heures du matin, les problèmes que je traite avec mon thérapeute.
Le résultat final est une « brain page » (page cerveau) de 30 000 mots. Chaque chapitre est présenté en deux colonnes : l'une dit ce que Pema dit, l'autre montre comment cela se rapporte aux choses que je vis réellement. Le chapitre sur le sentiment d'être déraciné était lié à une conversation spécifique que j'avais eue avec un fondateur la semaine précédente ; le chapitre sur la peur était mappé sur certains schémas de comportement que mon thérapeute avait pointés ; le chapitre sur le lâcher-prise citait quelque chose que j'avais écrit un soir tard – sur la liberté créative que j'ai trouvée cette année.
L'ensemble du processus a pris environ 40 minutes. Un thérapeute à 300 dollars de l'heure, même s'il lisait le livre et l'appliquait à ma vie, ne pourrait pas faire cela en 40 heures. Parce qu'il n'aurait pas chargé et ne pourrait pas croiser mon contexte professionnel, mon historique de lecture, mes notes de réunion et mon réseau de relations avec les fondateurs.
Jusqu'à présent, j'ai traité plus de 20 livres de cette manière : « Amplified » (Dion Lim), l'« Autobiographie » de Bertrand Russell, « Designing Your Life », « Le drame de l'enfant doué », « Finite and Infinite Games », « Gift from the Sea » (Lindbergh), « Siddhartha » (Hesse), « Le Loup des steppes » (Hesse), « The Art of Doing Science and Engineering » (Hamming), « The Dream Machine », « The Book on the Taboo Against Knowing Who You Are » (Alan Watts), « What Do You Care What Other People Think? » (Feynman), « When Things Fall Apart » (Pema Chödrön), « A Brief History of Everything » (Ken Wilber), etc.
Chaque livre enrichit ce « cerveau ». Le deuxième mirror connaît le contenu du premier, le vingtième mirror connaît tout le contenu des dix-neuf précédents.
Comment le Book-Mirror s'améliore par itération
Ma première tentative de book mirror était très mauvaise.
Dans la première version, il y avait trois erreurs factuelles sur ma famille. Il disait que mes parents étaient divorcés, ce qui n'est pas vrai ; il disait aussi que j'avais grandi à Hong Kong, mais je suis en fait né au Canada. C'étaient des erreurs basiques qui, si je partageais les résultats, risquaient de détruire la confiance.
J'ai donc ajouté une étape de vérification des faits obligatoire. Maintenant, chaque mirror, avant d'être livré, est évalué de manière croisée sur les faits connus dans le cerveau. Opus 4.7 1M attrape les erreurs de précision ; GPT-5.5 détecte les contextes manquants ; DeepSeek V4-Pro juge si un contenu semble trop général.
Ensuite, je l'ai amélioré avec une recherche profonde basée sur les appels d'outils GBrain. La version initiale était bonne en synthèse, mais faible en spécificité. À partir de la troisième version, elle a commencé à effectuer des recherches cérébrales section par section. Chaque élément de la colonne de droite fait référence à une véritable brain page existante.
Quand le livre parle de gérer les conversations difficiles, il ne se contente pas de résumer des principes généraux. Il extrait les vraies notes de réunion avec des fondateurs qui vivent des conversations difficiles avec leur cofondateur ; ou une idée qui m'est venue un jeudi en discutant avec mon frère James ; ou encore un enregistrement de chat instantané avec mon colocataire de l'université quand j'avais 19 ans. La sensation est très étrange.
C'est ce que signifie la « skillification » (dans GBrain, /skillify) en pratique. J'ai extrait ma première tentative manuelle en un modèle reproductible, écrit dans un fichier skill testé, avec des conditions de déclenchement et des cas limites. Dès lors, chaque correction continue de rapporter des intérêts composés dans tous les futurs book mirrors.
La compétence qui peut créer des compétences
Et voici où cela devient vraiment récursif, et je pense que c'est la plus grande idée.
Le système qui soutient ma vie quotidienne n'est pas apparu comme un monolithe énorme. Il est assemblé à partir de compétences (skills). Et ces compétences elles-mêmes sont créées par une autre compétence.
Skillify est une « méta-compétence » – une compétence pour créer de nouvelles compétences. Chaque fois que je rencontre un flux de travail que je vais répéter à l'avenir, je dis : « skillifie ça. » Ensuite, il revient sur ce qui vient de se passer, extrait le modèle reproductible, écrit un fichier skill testé avec des conditions de déclenchement et des cas limites, et l'enregistre dans le resolver.
Le pipeline book-mirror mentionné précédemment a été skillifié après ma première exécution manuelle de ce processus. Il en va de même pour le flux de travail meeting-prep : quand j'ai réalisé que je faisais les mêmes étapes avant chaque appel, je l'ai skillifié.
Les compétences peuvent être composées. Book-mirror appelle brain-ops pour le stockage, enrich pour ajouter du contexte, cross-modal-eval pour l'évaluation de la qualité, pdf-generation pour le résultat. Chaque compétence ne se concentre que sur une chose, mais elles peuvent s'enchaîner pour former des flux de travail complexes.
Quand j'améliore une compétence, tous les flux de travail qui l'utilisent deviennent automatiquement meilleurs. Plus de problème du type « j'ai oublié de mentionner ce cas limite dans le prompt ». La compétence s'en souvient.
Cette réunion qui s'est préparée toute seule
Demis Hassabis est venu à YC pour un « fireside chat ». La biographie de Sebastian Mallaby sur lui venait de sortir.
J'ai demandé au système de m'aider à préparer.
En moins de deux minutes, il a extrait : la brain page complète de Demis – construite continuellement pendant des mois à partir d'articles, de transcriptions de podcasts et de mes propres notes ; ses opinions publiques sur les échéances de l'AGI, comme « 50% par mise à l'échelle, 50% par innovation », et son estimation que l'AGI nécessiterait encore 5 à 10 ans ; les points clés de la biographie de Mallaby ; ses priorités de recherche explicitement mentionnées, incluant l'apprentissage continu, les modèles du monde et la mémoire à long terme ; des références croisées entre ses points de vue publics sur l'IA et les miens ; trois scripts de démonstration pour montrer les capacités de raisonnement à sauts multiples de ce « cerveau » pendant la conversation ; et un ensemble de points d'entrée de conversation conçus sur la base des chevauchements et divergences de nos visions du monde.
Ce n'était pas seulement une meilleure recherche Google. C'était une préparation contextuelle : le système utilisait non seulement les informations que j'avais accumulées sur Demis à long terme, mais aussi ma propre position et les objectifs stratégiques de cette conversation.
Il préparait non seulement des faits, mais des angles.
À quoi ressemble un cerveau de 100 000 pages
Je maintiens une base de connaissances structurée d'environ 100 000 pages.
Chaque personne que je rencontre a une page, avec une chronologie, une barre d'état – c'est-à-dire la situation réelle actuelle, les fils non résolus, et une note. Chaque réunion a une transcription, un résumé structuré, et un processus que j'appelle « entity propagation » (propagation d'entités) : après chaque réunion, le système parcourt chaque personne et chaque entreprise mentionnées, et met à jour leur brain page respective avec le contenu de la discussion.
Chaque livre que je lis obtient un book mirror chapitre par chapitre. Chaque article, podcast, vidéo que je consulte est ingéré, étiqueté et mis en relation.
Le schéma est simple. Chaque page a trois parties : en haut, la « vérité compilée » – la meilleure compréhension actuelle ; en dessous, une chronologie en « append-only », enregistrant les événements dans l'ordre ; sur le côté, un « sidecar » de données brutes pour stocker le matériel source.
Vous pouvez l'imaginer comme un Wikipédia personnel. Chaque page est mise à jour en continu par une IA qui a assisté aux réunions, lu les e-mails, regardé les présentations et digéré les PDF.
Voici un exemple de la façon dont un tel système rapporte des intérêts composés.
J'ai rencontré un fondateur en « office hours ». Le système crée ou met à jour sa page personnelle, la page de son entreprise, croise les références avec les notes de la réunion, vérifie si je l'ai déjà rencontré – si c'est le cas, il fait remonter ce dont nous avons parlé la dernière fois ; il vérifie son dossier de candidature, extrait les dernières métriques, et identifie si quelqu'un dans mon portefeuille d'entreprises ou mes contacts peut l'aider sur le problème qu'il traite.
La prochaine fois que j'entre dans une réunion avec lui, le système a déjà préparé un paquet de contexte complet.
C'est la différence entre une « armoire à dossiers » et un « système nerveux ». L'armoire à dossiers stocke simplement ; le système nerveux les connecte, marque ce qui a changé, et fait émerger les informations les plus pertinentes sur le moment.
Architecture
Voici comment il fonctionne. Je pense que c'est la bonne voie pour construire une IA personnelle, donc j'ai tout rendu open source, et vous pouvez le construire vous-même.
Le harnais (harness) est fin. OpenClaw est le runtime. Il reçoit mes messages, décide quelle compétence appliquer, puis distribue. Seulement quelques milliers de lignes de logique de routage. Il ne comprend pas les livres, les réunions ou les fondateurs, il se contente de router.
Les compétences (skills) sont épaisses. Il y en a maintenant plus de 100, chacune étant un fichier markdown autonome avec des instructions détaillées pour une tâche spécifique. Vous avez déjà vu book-mirror et meeting-prep. Voici quelques autres compétences incluses dans GBrain :
meeting-ingestion : après chaque réunion, il extrait la transcription, génère un résumé structuré, puis parcourt chaque personne et entreprise mentionnées, mettant à jour leur brain page avec le contenu discuté. La page de la réunion elle-même n'est pas le produit final ; la vraie valeur est de propager ces informations vers les pages de chaque personne et entreprise.
enrich : donnez-lui un nom de personne. Il extrait des informations de cinq sources différentes, fusionne le tout en une brain page, incluant le parcours professionnel, les coordonnées, l'historique des réunions et le contexte relationnel. Chaque jugement a des citations de source.
media-ingest : traite vidéo, audio, PDF, captures d'écran et dépôts GitHub. Il transcrit le contenu, extrait les entités, et archive le matériel au bon endroit dans le cerveau. Je l'utilise souvent pour les vidéos YouTube, podcasts et mémo vocaux.
perplexity-research : c'est de la recherche web avec des capacités augmentées par le cerveau. Il recherche sur le web via Perplexity, mais avant de synthétiser, il vérifie d'abord ce que le cerveau sait déjà, vous disant ainsi quelles informations sont vraiment nouvelles et lesquelles vous avez déjà capturées.
J'ai aussi construit des dizaines de compétences pour mon propre travail, que je vais probablement aussi ouvrir : email-triage, investor-update-ingest – qui identifie les mises à jour de portefeuille dans ma boîte mail et extrait les métriques dans les pages des entreprises ; calendar-check – pour détecter les conflits de calendrier et les déplacements impossibles ; et toute une stack de recherche d'actualités que j'utilise pour mon travail d'affaires publiques.
Chaque compétence encode une connaissance opérationnelle qui, confiée à un nouvel assistant humain, pourrait prendre des mois à apprendre. On me demande comment je « prompte » mon IA. La réponse : je ne le fais pas. La compétence elle-même est le prompt.
Les données sont épaisses. Le repo du cerveau contient 100 000 pages de connaissances structurées. Chaque personne, entreprise, réunion, livre, article, idée que je rencontre est connectée, consultable, et grandit chaque jour.
Le code est aussi épais. Le code qui l'alimente est important aussi : les scripts de transcription, OCR, archivage des réseaux sociaux, synchronisation de calendrier, intégration d'API. Mais l'endroit où la valeur à intérêts composés se dépose vraiment, ce sont les données.
Je lance plus de 100 tâches cron par jour, vérifiant tout ce que je surveille : réseaux sociaux, Slack, e-mails, et toute autre information que je pourrais suivre. Mes Agents OpenClaw/Hermes regardent aussi ces choses pour moi.
Les modèles sont interchangeables. Pour la précision, j'utilise Opus 4.7 1M ; pour le rappel et l'extraction exhaustive, GPT-5.5 ; pour le travail créatif et la perspective tierce, DeepSeek V4-Pro ; pour la vitesse, Groq avec Llama. La compétence décide quelle tâche appelle quel modèle. Le harnais s'en fiche.
Quand on demande « quel modèle d'IA est le meilleur ? », la réponse est : vous posez la mauvaise question. Les modèles ne sont que des moteurs, tout le reste est la voiture.
Le constructeur de 2 heures du matin, et un système à intérêts composés constants
Les gens me posent des questions sur la productivité. Mais je ne pense pas comme ça.
Je pense aux intérêts composés.
Chaque réunion à laquelle j'assiste ajoute du contenu à ce cerveau. Chaque livre que je lis enrichit le contexte pour le prochain. Chaque compétence que je construis rend le prochain flux de travail plus rapide. Chaque page de personne que je mets à jour rend la préparation de la prochaine réunion plus tranchante.
Aujourd'hui, ce système est 10 fois plus puissant qu'il y a deux mois. Dans deux mois, il sera encore 10 fois plus puissant qu'aujourd'hui.
Quand je suis encore en train d'écrire du code à 2 heures du matin – et je le fais souvent, parce que l'IA m'a redonné la joie de construire – je ne fais pas que du logiciel. J'ajoute des capacités à un système qui s'améliore à chaque heure.
100 cronjobs tournent 24h/24. L'ingestion des réunions se fait automatiquement. Le tri des e-mails tourne toutes les 10 minutes. Le graphe de connaissance s'enrichit de chaque conversation. Le système traite les transcriptions quotidiennes et extrait en temps réel les schémas que je n'ai pas remarqués.
Ce n'est pas un outil d'écriture, ni un moteur de recherche, ni un chatbot.
C'est un véritable deuxième cerveau fonctionnel. Ce n'est pas une métaphore, mais un système en fonctionnement : 100 000 pages de contenu, plus de 100 compétences, 15 cron jobs, et le contexte accumulé de chaque relation professionnelle, réunion, livre et idée auxquels j'ai participé au cours de l'année dernière.
J'ai rendu toute la stack technologique open source. GStack est un framework de compétences de codage, avec déjà plus de 87 000 étoiles, et c'est avec lui que j'ai construit ce système. Quand un agent a besoin d'écrire du code, je l'utilise toujours comme une compétence dans mon Agent OpenClaw/Hermes. Il y a aussi un excellent navigateur programmable, supportant à la fois les modes headful et headless.
GBrain est l'infrastructure de connaissance. OpenClaw et Hermes Agent sont les harnais, vous pouvez choisir l'un ou l'autre, mais j'utilise généralement les deux. Le repo de données est aussi sur GitHub.
Le jugement central est simple : l'avenir appartient aux individus qui peuvent construire des systèmes d'IA à intérêts composés, pas à ceux qui ne savent qu'utiliser les outils d'IA centralisés possédés par les entreprises.
La différence entre les deux est comme la différence entre tenir un journal intime et avoir un système nerveux.
Comment commencer
Si vous voulez aussi construire un tel système :
Choisissez d'abord un harnais. Vous pouvez utiliser OpenClaw, Hermes Agent, ou en construire un à partir de zéro basé sur Pi. La clé est de rester léger. Le harnais n'est qu'un routeur. Vous pouvez le déployer sur un ordinateur inutilisé à la maison et y accéder via Tailscale ; ou le mettre sur un service cloud comme Render ou Railway.
Ensuite, construisez un « cerveau » avec GBrain. Au départ, inspiré par le LLM Wiki de Karpathy, je l'ai implémenté dans OpenClaw, puis je l'ai étendu en GBrain. C'est le meilleur système de recherche que j'ai testé : 97,6% de rappel sur LongMemEval, surpassant MemPalace sans appeler de LLM lors de l'étape de recherche. Il vient avec 39 compétences installables, incluant tout ce qui est mentionné dans cet article. Une seule commande d'installation. Vous obtenez un repo git où chaque personne, réunion, article, idée aura sa propre page.
Ensuite, faites quelque chose de vraiment intéressant. Ne planifiez pas votre architecture de compétences dès le début. Accomplissez d'abord une tâche concrète : écrire un rapport, rechercher une personne, télécharger les scores d'une saison de NBA et construire un modèle de prédiction pour vos paris sportifs, analyser votre portefeuille, ou tout ce qui vous intéresse vraiment. Faites-le avec votre agent, itérez jusqu'à ce que le résultat soit assez bon, puis exécutez Skillify – la méta-compétence mentionnée précédemment – pour extraire le modèle en une compétence réutilisable. Exécutez ensuite check_resolvable pour confirmer que cette nouvelle compétence est connectée au resolver. Cette boucle transforme un travail ponctuel en infrastructure à intérêts composés.
Continuez à l'utiliser et examinez sérieusement la sortie. La compétence sera médiocre au début. C'est tout le point. Utilisez-la, lisez ce qu'elle génère, et quand vous voyez quelque chose de faux, exécutez cross-modal eval : donnez la sortie à plusieurs modèles, demandez-leur de se noter mutuellement selon les dimensions qui vous importent. C'est ainsi que j'ai découvert les erreurs factuelles du book-mirror. La correction a été écrite dans la compétence, et depuis, chaque mirror est devenu plus propre.
Six mois plus tard, vous aurez quelque chose qu'aucun chatbot ne pourra reproduire. Parce que la vraie valeur n'est pas dans le modèle lui-même, mais dans le fait que vous avez appris à ce système à comprendre votre vie, votre travail et votre façon de juger spécifiques.
La première chose que j'ai faite avec ce système était très mauvaise. À la centième, c'était un système auquel j'osais confier mon calendrier, ma boîte de réception, la préparation de mes réunions et ma liste de lecture. Le système apprend, et j'apprends. La courbe des intérêts composés est réelle.
Compétences épaisses, code épais, harnais fin. Les LLM ne sont eux-mêmes qu'un moteur. Vous pouvez tout à fait construire votre propre voiture.
Tout ce que je décris ici – toutes les compétences, le pipeline book mirror, le cadre cross-modal eval, la boucle skillify, l'architecture resolver, et les plus de 30 skillpacks installables – est déjà open source et disponible gratuitement sur GitHub.
Allez construire.







