Le guide de l'IA du CEO de Y-Combinator : le futur appartient à ceux qui construisent des systèmes à intérêts composés

marsbitPublié le 2026-05-11Dernière mise à jour le 2026-05-11

Résumé

Le PDG de Y Combinator, Garry Tan, présente une nouvelle vision de l'IA personnelle : non pas un simple chatbot, mais un système d'exploitation qui capitalise sur les intérêts composés. L'idée centrale est de passer de l'utilisation ponctuelle de modèles d'IA à la construction d'un "second cerveau" structuré et évolutif. Ce système, qu'il a développé et open-sourcé (GBrain, OpenClaw), ingère et connecte automatiquement toutes les données de sa vie professionnelle : notes de réunions, livres, emails, contacts. Chaque interaction enrichit une base de connaissances de 100 000 pages, permettant un contexte riche pour les tâches futures. La clé réside dans la "skillification" : transformer les workflows répétitifs (ex : préparer une réunion, analyser un livre) en "compétences" (skills) autonomes et réutilisables. Une méta-compétence, "Skillify", permet même de créer de nouvelles compétences automatiquement. Ainsi, le système s'améliore de lui-même, chaque correction profitant à toutes les utilisations futures. Tan détaille des cas concrets : un "miroir de livre" qui résume un ouvrage et le relie à son expérience personnelle en 40 minutes, ou une préparation de réunion qui synthétise des mois de contexte sur un interlocuteur en deux minutes. L'argument est que l'avantage concurrentiel futur appartiendra à ceux qui sauront construire de tels systèmes d'IA personnels et composés, centrés sur leur contexte unique, plutôt qu'à ceux qui se contentent d'outils centralisés. Il invite ...

Note de la rédaction : Alors que la plupart des gens voient encore l'IA comme une fenêtre de chat plus intelligente, Garry Tan, le PDG actuel de Y Combinator, s'efforce déjà d'en faire un système d'exploitation personnel.

La structure fondamentale de la productivité individuelle à l'ère de l'IA est en train de changer : les modèles ne sont que des moteurs. Ce qui génère réellement des intérêts composés, c'est tout un système construit autour des connaissances personnelles, des flux de travail, du contexte et du jugement de chacun.

Dans ce système, chaque réunion, chaque livre, chaque e-mail, chaque relation n'est plus une information isolée, mais est continuellement intégrée dans un « second cerveau » structuré. Chaque tâche récurrente ne dépend plus non plus d'un prompt temporaire, mais est abstraite en une « skill » réutilisable, et est constamment itérée dans les travaux ultérieurs. En d'autres termes, l'IA ne fait pas qu'aider à accomplir des tâches ; elle aide l'individu à « productiser », systématiser et « infrastructuriser » sa propre façon de travailler.

Plus important encore, l'auteur propose une voie personnelle différente des outils d'IA centralisés : la compétitivité future n'appartiendra peut-être pas seulement à ceux qui savent utiliser l'IA, mais à ceux qui, autour de leur vie et de leur travail réels, parviennent à entraîner un système d'IA à intérêts composés. Les chatbots donnent des réponses, les moteurs de recherche fournissent des informations, mais un véritable système d'IA personnel se souviendra de votre contexte, comprendra votre situation, héritera de votre jugement et deviendra plus fort à chaque utilisation.

C'est aussi là que réside le caractère le plus inspirant de cet article : la valeur de l'IA ne réside pas dans ce qu'elle génère une fois, mais dans sa capacité à devenir un système nerveux qui s'accumule, se connecte et s'améliore en permanence. Pour l'individu, c'est peut-être là le véritable point de départ d'un « mode de travail natif de l'IA ».

Voici l'article original :

Les gens me demandent toujours pourquoi je passe mes soirées à écrire du code, jusqu'à 2 heures du matin. J'ai un travail, et un travail exigeant – je suis le PDG de Y Combinator. Nous aidons chaque année des milliers d'entrepreneurs à réaliser leur rêve : créer des startups qui génèrent réellement des revenus et connaissent une croissance rapide.

Ces cinq derniers mois, l'IA m'a redonné le goût de construire. Fin de l'année dernière, les outils étaient devenus suffisamment bons pour que je recommence à créer de mes mains. Pas des projets jouets, mais de vrais systèmes capables de croître de manière exponentielle. Je veux vous montrer par des exemples concrets à quoi cela ressemble lorsque vous cessez de voir votre IA personnelle comme une fenêtre de chat, mais comme un système d'exploitation. Je rends ces choses open source et j'écris des articles comme celui-ci parce que j'espère que vous pourrez aussi accélérer avec moi.

Ceci fait partie d'une série : « Fat Skills, Fat Code, Thin Harness » présente l'architecture centrale ; « Resolvers » parle des tables de routage intelligentes ; « The LOC Controversy » discute de la façon dont chaque technicien peut s'amplifier de 100 à 1000 fois ; « Naked models are stupider » affirme que les modèles ne sont que des moteurs, pas la voiture entière ; et le « skillify manifesto » explique pourquoi LangChain a levé 160 millions de dollars mais ne vous a donné qu'un rack de squat et des haltères sans programme d'entraînement, tandis que cet article vous donne le programme d'entraînement dont vous avez vraiment besoin.

Ce livre qui « me lit à l'envers »

Le mois dernier, je lisais « When Things Fall Apart » de Pema Chödrön. Ce livre de 162 pages et 22 chapitres parle de la vision bouddhiste de la souffrance, du sentiment d'être déraciné et du lâcher-prise. Un ami me l'a recommandé pendant une période difficile.

J'ai demandé à mon IA de faire un « book mirror » (miroir de livre).

Concrètement, cela signifie : le système a extrait le contenu des 22 chapitres du livre, puis pour chaque chapitre, il a lancé un sous-agent pour faire deux choses simultanément : résumer la pensée de l'auteur, et cartographier chaque point sur ma vie réelle.

Pas des généralités vagues du style « cela s'applique aussi aux leaders », mais des correspondances très spécifiques. Il connaît mon contexte familial : des parents immigrés, mon père venant de Hong Kong et de Singapour, ma mère de Birmanie. Il connaît mon contexte professionnel : je gère YC, je construis des outils open source, je conseille des milliers de fondateurs. Il sait ce que j'ai lu récemment, à quoi je pense à 2 heures du matin, les problèmes que je traite avec mon thérapeute.

Le résultat final est une « brain page » (page cerveau) de 30 000 mots. Chaque chapitre est présenté en deux colonnes : l'une dit ce que Pema dit, l'autre montre comment cela se rapporte aux choses que je vis réellement. Le chapitre sur le sentiment d'être déraciné était lié à une conversation spécifique que j'avais eue avec un fondateur la semaine précédente ; le chapitre sur la peur était mappé sur certains schémas de comportement que mon thérapeute avait pointés ; le chapitre sur le lâcher-prise citait quelque chose que j'avais écrit un soir tard – sur la liberté créative que j'ai trouvée cette année.

L'ensemble du processus a pris environ 40 minutes. Un thérapeute à 300 dollars de l'heure, même s'il lisait le livre et l'appliquait à ma vie, ne pourrait pas faire cela en 40 heures. Parce qu'il n'aurait pas chargé et ne pourrait pas croiser mon contexte professionnel, mon historique de lecture, mes notes de réunion et mon réseau de relations avec les fondateurs.

Jusqu'à présent, j'ai traité plus de 20 livres de cette manière : « Amplified » (Dion Lim), l'« Autobiographie » de Bertrand Russell, « Designing Your Life », « Le drame de l'enfant doué », « Finite and Infinite Games », « Gift from the Sea » (Lindbergh), « Siddhartha » (Hesse), « Le Loup des steppes » (Hesse), « The Art of Doing Science and Engineering » (Hamming), « The Dream Machine », « The Book on the Taboo Against Knowing Who You Are » (Alan Watts), « What Do You Care What Other People Think? » (Feynman), « When Things Fall Apart » (Pema Chödrön), « A Brief History of Everything » (Ken Wilber), etc.

Chaque livre enrichit ce « cerveau ». Le deuxième mirror connaît le contenu du premier, le vingtième mirror connaît tout le contenu des dix-neuf précédents.

Comment le Book-Mirror s'améliore par itération

Ma première tentative de book mirror était très mauvaise.

Dans la première version, il y avait trois erreurs factuelles sur ma famille. Il disait que mes parents étaient divorcés, ce qui n'est pas vrai ; il disait aussi que j'avais grandi à Hong Kong, mais je suis en fait né au Canada. C'étaient des erreurs basiques qui, si je partageais les résultats, risquaient de détruire la confiance.

J'ai donc ajouté une étape de vérification des faits obligatoire. Maintenant, chaque mirror, avant d'être livré, est évalué de manière croisée sur les faits connus dans le cerveau. Opus 4.7 1M attrape les erreurs de précision ; GPT-5.5 détecte les contextes manquants ; DeepSeek V4-Pro juge si un contenu semble trop général.

Ensuite, je l'ai amélioré avec une recherche profonde basée sur les appels d'outils GBrain. La version initiale était bonne en synthèse, mais faible en spécificité. À partir de la troisième version, elle a commencé à effectuer des recherches cérébrales section par section. Chaque élément de la colonne de droite fait référence à une véritable brain page existante.

Quand le livre parle de gérer les conversations difficiles, il ne se contente pas de résumer des principes généraux. Il extrait les vraies notes de réunion avec des fondateurs qui vivent des conversations difficiles avec leur cofondateur ; ou une idée qui m'est venue un jeudi en discutant avec mon frère James ; ou encore un enregistrement de chat instantané avec mon colocataire de l'université quand j'avais 19 ans. La sensation est très étrange.

C'est ce que signifie la « skillification » (dans GBrain, /skillify) en pratique. J'ai extrait ma première tentative manuelle en un modèle reproductible, écrit dans un fichier skill testé, avec des conditions de déclenchement et des cas limites. Dès lors, chaque correction continue de rapporter des intérêts composés dans tous les futurs book mirrors.

La compétence qui peut créer des compétences

Et voici où cela devient vraiment récursif, et je pense que c'est la plus grande idée.

Le système qui soutient ma vie quotidienne n'est pas apparu comme un monolithe énorme. Il est assemblé à partir de compétences (skills). Et ces compétences elles-mêmes sont créées par une autre compétence.

Skillify est une « méta-compétence » – une compétence pour créer de nouvelles compétences. Chaque fois que je rencontre un flux de travail que je vais répéter à l'avenir, je dis : « skillifie ça. » Ensuite, il revient sur ce qui vient de se passer, extrait le modèle reproductible, écrit un fichier skill testé avec des conditions de déclenchement et des cas limites, et l'enregistre dans le resolver.

Le pipeline book-mirror mentionné précédemment a été skillifié après ma première exécution manuelle de ce processus. Il en va de même pour le flux de travail meeting-prep : quand j'ai réalisé que je faisais les mêmes étapes avant chaque appel, je l'ai skillifié.

Les compétences peuvent être composées. Book-mirror appelle brain-ops pour le stockage, enrich pour ajouter du contexte, cross-modal-eval pour l'évaluation de la qualité, pdf-generation pour le résultat. Chaque compétence ne se concentre que sur une chose, mais elles peuvent s'enchaîner pour former des flux de travail complexes.

Quand j'améliore une compétence, tous les flux de travail qui l'utilisent deviennent automatiquement meilleurs. Plus de problème du type « j'ai oublié de mentionner ce cas limite dans le prompt ». La compétence s'en souvient.

Cette réunion qui s'est préparée toute seule

Demis Hassabis est venu à YC pour un « fireside chat ». La biographie de Sebastian Mallaby sur lui venait de sortir.

J'ai demandé au système de m'aider à préparer.

En moins de deux minutes, il a extrait : la brain page complète de Demis – construite continuellement pendant des mois à partir d'articles, de transcriptions de podcasts et de mes propres notes ; ses opinions publiques sur les échéances de l'AGI, comme « 50% par mise à l'échelle, 50% par innovation », et son estimation que l'AGI nécessiterait encore 5 à 10 ans ; les points clés de la biographie de Mallaby ; ses priorités de recherche explicitement mentionnées, incluant l'apprentissage continu, les modèles du monde et la mémoire à long terme ; des références croisées entre ses points de vue publics sur l'IA et les miens ; trois scripts de démonstration pour montrer les capacités de raisonnement à sauts multiples de ce « cerveau » pendant la conversation ; et un ensemble de points d'entrée de conversation conçus sur la base des chevauchements et divergences de nos visions du monde.

Ce n'était pas seulement une meilleure recherche Google. C'était une préparation contextuelle : le système utilisait non seulement les informations que j'avais accumulées sur Demis à long terme, mais aussi ma propre position et les objectifs stratégiques de cette conversation.

Il préparait non seulement des faits, mais des angles.

À quoi ressemble un cerveau de 100 000 pages

Je maintiens une base de connaissances structurée d'environ 100 000 pages.

Chaque personne que je rencontre a une page, avec une chronologie, une barre d'état – c'est-à-dire la situation réelle actuelle, les fils non résolus, et une note. Chaque réunion a une transcription, un résumé structuré, et un processus que j'appelle « entity propagation » (propagation d'entités) : après chaque réunion, le système parcourt chaque personne et chaque entreprise mentionnées, et met à jour leur brain page respective avec le contenu de la discussion.

Chaque livre que je lis obtient un book mirror chapitre par chapitre. Chaque article, podcast, vidéo que je consulte est ingéré, étiqueté et mis en relation.

Le schéma est simple. Chaque page a trois parties : en haut, la « vérité compilée » – la meilleure compréhension actuelle ; en dessous, une chronologie en « append-only », enregistrant les événements dans l'ordre ; sur le côté, un « sidecar » de données brutes pour stocker le matériel source.

Vous pouvez l'imaginer comme un Wikipédia personnel. Chaque page est mise à jour en continu par une IA qui a assisté aux réunions, lu les e-mails, regardé les présentations et digéré les PDF.

Voici un exemple de la façon dont un tel système rapporte des intérêts composés.

J'ai rencontré un fondateur en « office hours ». Le système crée ou met à jour sa page personnelle, la page de son entreprise, croise les références avec les notes de la réunion, vérifie si je l'ai déjà rencontré – si c'est le cas, il fait remonter ce dont nous avons parlé la dernière fois ; il vérifie son dossier de candidature, extrait les dernières métriques, et identifie si quelqu'un dans mon portefeuille d'entreprises ou mes contacts peut l'aider sur le problème qu'il traite.

La prochaine fois que j'entre dans une réunion avec lui, le système a déjà préparé un paquet de contexte complet.

C'est la différence entre une « armoire à dossiers » et un « système nerveux ». L'armoire à dossiers stocke simplement ; le système nerveux les connecte, marque ce qui a changé, et fait émerger les informations les plus pertinentes sur le moment.

Architecture

Voici comment il fonctionne. Je pense que c'est la bonne voie pour construire une IA personnelle, donc j'ai tout rendu open source, et vous pouvez le construire vous-même.

Le harnais (harness) est fin. OpenClaw est le runtime. Il reçoit mes messages, décide quelle compétence appliquer, puis distribue. Seulement quelques milliers de lignes de logique de routage. Il ne comprend pas les livres, les réunions ou les fondateurs, il se contente de router.

Les compétences (skills) sont épaisses. Il y en a maintenant plus de 100, chacune étant un fichier markdown autonome avec des instructions détaillées pour une tâche spécifique. Vous avez déjà vu book-mirror et meeting-prep. Voici quelques autres compétences incluses dans GBrain :

meeting-ingestion : après chaque réunion, il extrait la transcription, génère un résumé structuré, puis parcourt chaque personne et entreprise mentionnées, mettant à jour leur brain page avec le contenu discuté. La page de la réunion elle-même n'est pas le produit final ; la vraie valeur est de propager ces informations vers les pages de chaque personne et entreprise.

enrich : donnez-lui un nom de personne. Il extrait des informations de cinq sources différentes, fusionne le tout en une brain page, incluant le parcours professionnel, les coordonnées, l'historique des réunions et le contexte relationnel. Chaque jugement a des citations de source.

media-ingest : traite vidéo, audio, PDF, captures d'écran et dépôts GitHub. Il transcrit le contenu, extrait les entités, et archive le matériel au bon endroit dans le cerveau. Je l'utilise souvent pour les vidéos YouTube, podcasts et mémo vocaux.

perplexity-research : c'est de la recherche web avec des capacités augmentées par le cerveau. Il recherche sur le web via Perplexity, mais avant de synthétiser, il vérifie d'abord ce que le cerveau sait déjà, vous disant ainsi quelles informations sont vraiment nouvelles et lesquelles vous avez déjà capturées.

J'ai aussi construit des dizaines de compétences pour mon propre travail, que je vais probablement aussi ouvrir : email-triage, investor-update-ingest – qui identifie les mises à jour de portefeuille dans ma boîte mail et extrait les métriques dans les pages des entreprises ; calendar-check – pour détecter les conflits de calendrier et les déplacements impossibles ; et toute une stack de recherche d'actualités que j'utilise pour mon travail d'affaires publiques.

Chaque compétence encode une connaissance opérationnelle qui, confiée à un nouvel assistant humain, pourrait prendre des mois à apprendre. On me demande comment je « prompte » mon IA. La réponse : je ne le fais pas. La compétence elle-même est le prompt.

Les données sont épaisses. Le repo du cerveau contient 100 000 pages de connaissances structurées. Chaque personne, entreprise, réunion, livre, article, idée que je rencontre est connectée, consultable, et grandit chaque jour.

Le code est aussi épais. Le code qui l'alimente est important aussi : les scripts de transcription, OCR, archivage des réseaux sociaux, synchronisation de calendrier, intégration d'API. Mais l'endroit où la valeur à intérêts composés se dépose vraiment, ce sont les données.

Je lance plus de 100 tâches cron par jour, vérifiant tout ce que je surveille : réseaux sociaux, Slack, e-mails, et toute autre information que je pourrais suivre. Mes Agents OpenClaw/Hermes regardent aussi ces choses pour moi.

Les modèles sont interchangeables. Pour la précision, j'utilise Opus 4.7 1M ; pour le rappel et l'extraction exhaustive, GPT-5.5 ; pour le travail créatif et la perspective tierce, DeepSeek V4-Pro ; pour la vitesse, Groq avec Llama. La compétence décide quelle tâche appelle quel modèle. Le harnais s'en fiche.

Quand on demande « quel modèle d'IA est le meilleur ? », la réponse est : vous posez la mauvaise question. Les modèles ne sont que des moteurs, tout le reste est la voiture.

Le constructeur de 2 heures du matin, et un système à intérêts composés constants

Les gens me posent des questions sur la productivité. Mais je ne pense pas comme ça.

Je pense aux intérêts composés.

Chaque réunion à laquelle j'assiste ajoute du contenu à ce cerveau. Chaque livre que je lis enrichit le contexte pour le prochain. Chaque compétence que je construis rend le prochain flux de travail plus rapide. Chaque page de personne que je mets à jour rend la préparation de la prochaine réunion plus tranchante.

Aujourd'hui, ce système est 10 fois plus puissant qu'il y a deux mois. Dans deux mois, il sera encore 10 fois plus puissant qu'aujourd'hui.

Quand je suis encore en train d'écrire du code à 2 heures du matin – et je le fais souvent, parce que l'IA m'a redonné la joie de construire – je ne fais pas que du logiciel. J'ajoute des capacités à un système qui s'améliore à chaque heure.

100 cronjobs tournent 24h/24. L'ingestion des réunions se fait automatiquement. Le tri des e-mails tourne toutes les 10 minutes. Le graphe de connaissance s'enrichit de chaque conversation. Le système traite les transcriptions quotidiennes et extrait en temps réel les schémas que je n'ai pas remarqués.

Ce n'est pas un outil d'écriture, ni un moteur de recherche, ni un chatbot.

C'est un véritable deuxième cerveau fonctionnel. Ce n'est pas une métaphore, mais un système en fonctionnement : 100 000 pages de contenu, plus de 100 compétences, 15 cron jobs, et le contexte accumulé de chaque relation professionnelle, réunion, livre et idée auxquels j'ai participé au cours de l'année dernière.

J'ai rendu toute la stack technologique open source. GStack est un framework de compétences de codage, avec déjà plus de 87 000 étoiles, et c'est avec lui que j'ai construit ce système. Quand un agent a besoin d'écrire du code, je l'utilise toujours comme une compétence dans mon Agent OpenClaw/Hermes. Il y a aussi un excellent navigateur programmable, supportant à la fois les modes headful et headless.

GBrain est l'infrastructure de connaissance. OpenClaw et Hermes Agent sont les harnais, vous pouvez choisir l'un ou l'autre, mais j'utilise généralement les deux. Le repo de données est aussi sur GitHub.

Le jugement central est simple : l'avenir appartient aux individus qui peuvent construire des systèmes d'IA à intérêts composés, pas à ceux qui ne savent qu'utiliser les outils d'IA centralisés possédés par les entreprises.

La différence entre les deux est comme la différence entre tenir un journal intime et avoir un système nerveux.

Comment commencer

Si vous voulez aussi construire un tel système :

Choisissez d'abord un harnais. Vous pouvez utiliser OpenClaw, Hermes Agent, ou en construire un à partir de zéro basé sur Pi. La clé est de rester léger. Le harnais n'est qu'un routeur. Vous pouvez le déployer sur un ordinateur inutilisé à la maison et y accéder via Tailscale ; ou le mettre sur un service cloud comme Render ou Railway.

Ensuite, construisez un « cerveau » avec GBrain. Au départ, inspiré par le LLM Wiki de Karpathy, je l'ai implémenté dans OpenClaw, puis je l'ai étendu en GBrain. C'est le meilleur système de recherche que j'ai testé : 97,6% de rappel sur LongMemEval, surpassant MemPalace sans appeler de LLM lors de l'étape de recherche. Il vient avec 39 compétences installables, incluant tout ce qui est mentionné dans cet article. Une seule commande d'installation. Vous obtenez un repo git où chaque personne, réunion, article, idée aura sa propre page.

Ensuite, faites quelque chose de vraiment intéressant. Ne planifiez pas votre architecture de compétences dès le début. Accomplissez d'abord une tâche concrète : écrire un rapport, rechercher une personne, télécharger les scores d'une saison de NBA et construire un modèle de prédiction pour vos paris sportifs, analyser votre portefeuille, ou tout ce qui vous intéresse vraiment. Faites-le avec votre agent, itérez jusqu'à ce que le résultat soit assez bon, puis exécutez Skillify – la méta-compétence mentionnée précédemment – pour extraire le modèle en une compétence réutilisable. Exécutez ensuite check_resolvable pour confirmer que cette nouvelle compétence est connectée au resolver. Cette boucle transforme un travail ponctuel en infrastructure à intérêts composés.

Continuez à l'utiliser et examinez sérieusement la sortie. La compétence sera médiocre au début. C'est tout le point. Utilisez-la, lisez ce qu'elle génère, et quand vous voyez quelque chose de faux, exécutez cross-modal eval : donnez la sortie à plusieurs modèles, demandez-leur de se noter mutuellement selon les dimensions qui vous importent. C'est ainsi que j'ai découvert les erreurs factuelles du book-mirror. La correction a été écrite dans la compétence, et depuis, chaque mirror est devenu plus propre.

Six mois plus tard, vous aurez quelque chose qu'aucun chatbot ne pourra reproduire. Parce que la vraie valeur n'est pas dans le modèle lui-même, mais dans le fait que vous avez appris à ce système à comprendre votre vie, votre travail et votre façon de juger spécifiques.

La première chose que j'ai faite avec ce système était très mauvaise. À la centième, c'était un système auquel j'osais confier mon calendrier, ma boîte de réception, la préparation de mes réunions et ma liste de lecture. Le système apprend, et j'apprends. La courbe des intérêts composés est réelle.

Compétences épaisses, code épais, harnais fin. Les LLM ne sont eux-mêmes qu'un moteur. Vous pouvez tout à fait construire votre propre voiture.

Tout ce que je décris ici – toutes les compétences, le pipeline book mirror, le cadre cross-modal eval, la boucle skillify, l'architecture resolver, et les plus de 30 skillpacks installables – est déjà open source et disponible gratuitement sur GitHub.

Allez construire.

Questions liées

QSelon l'article, quelle est la distinction clé entre utiliser l'IA comme un simple outil et la transformer en système personnel d'exploitation ?

ALa distinction clé est que l'IA ne doit pas être utilisée seulement comme un chatbot plus intelligent, mais comme le noyau d'un système d'exploitation personnel. Ce système ne génère pas seulement des réponses, mais construit un « deuxième cerveau » structuré, interconnecté et accumulant des connaissances. Il mémorise le contexte, comprend les situations spécifiques, hérite du jugement de l'utilisateur et s'améliore à chaque interaction, créant ainsi un effet cumulatif.

QQuelle est la fonction du skill « skillify » dans le système décrit par Garry Tan ?

ALe skill « skillify » est un méta-skill, c'est-à-dire une compétence pour créer de nouvelles compétences. Lorsqu'une tâche ou un flux de travail est identifié comme étant répétitif, ce skill analyse ce qui s'est passé, extrait le modèle réutilisable, l'écrit dans un fichier de skill testé (incluant les déclencheurs et les cas limites) et l'enregistre dans le « resolver » (table de routage). Cela permet d'automatiser et d'améliorer continuellement les processus, chaque amélioration bénéficiant à tous les workflows futurs.

QComment le processus de « book mirror » fonctionne-t-il et quels bénéfices Garry Tan en tire-t-il ?

ALe « book mirror » est un processus où le système extrait le contenu complet d'un livre, puis, pour chaque chapitre, un sous-agent fait deux choses simultanément : résumer les idées de l'auteur et les cartographier de manière très spécifique sur la vie réelle et le contexte personnel de Garry Tan (son histoire familiale, son travail, ses notes de thérapie, etc.). Le résultat est une page cérébrale détaillée en deux colonnes : les idées du livre et leurs applications concrètes. Cela lui permet d'intérioriser profondément les livres en un temps record et d'enrichir continuellement sa base de connaissances.

QQuelle est l'architecture générale du système personnel d'IA décrit dans l'article (Harness, Skills, Données) ?

AL'architecture repose sur trois couches : 1) Un « Harness » très fin (comme OpenClaw) qui agit comme un routeur, recevant les messages et dirigeant la tâche vers la compétence appropriée. 2) Des « Skills » épais et nombreux (plus de 100), chacun étant un fichier auto-contenu décrivant une tâche spécifique (ex : préparation de réunion, ingestion de contenu). Ces skills peuvent s'assembler en workflows complexes. 3) Des « Données » épaisses, constituant un cerveau structuré de ~100 000 pages (rencontres, livres, notes) qui s'enrichit continuellement et où tout est interconnecté et consultable.

QQuel est le principal conseil de Garry Tan pour commencer à construire son propre système d'IA à effet cumulatif ?

ASon principal conseil est de commencer par une tâche concrète et intéressante, sans planifier l'architecture complète au départ. Il faut utiliser un agent pour accomplir cette tâche (ex : recherche sur une personne, analyse de données), itérer jusqu'à obtenir un bon résultat, puis utiliser le skill « skillify » pour extraire le modèle et en faire une compétence réutilisable. Ensuite, il faut continuer à l'utiliser, examiner ses sorties, les évaluer avec des modèles multiples (« cross-modal eval ») pour identifier et corriger les erreurs, intégrant ainsi les améliorations directement dans le skill. C'est ce cycle qui transforme un travail ponctuel en infrastructure à effet cumulatif.

Lectures associées

Que se passe-t-il avec l'altcoin XDC et pourquoi a-t-il récemment dépassé le Bitcoin ?

Le spécialiste de la crypto-monnaie, X Finance Bull, souligne l'attention croissante portée à l'altcoin XDC, qui a récemment dépassé Bitcoin en tant que crypto la plus consultée sur CoinMarketCap sur sept jours. Il explique que cet intérêt n'est pas fortuit : le réseau XDC est conçu pour combler le déficit de financement du commerce international de 2 500 milliards de dollars, en remplaçant les processus papier par une blockchain institutionnelle. Celle-ci offre 2 000 transactions par seconde, une finalité en 2 secondes, des frais quasi nuls, des masternodes vérifiés KYC et est conforme à la norme ISO 20022, utilisée par SWIFT. Le réseau bénéficie d'adoptions notables comme la garde régulée par BitGo, le traitement de plus de 100 millions de dollars de volume quotidien par Liqi, et son utilisation par TradeTrust de Singapour. Des partenariats pour des paiements aux PME en Australie et l'émission d'or tokenisé conforme à la charia y contribuent également. Le jeton USDC de Circle est accessible sur le réseau, et les régulateurs américains (SEC, CFTC) le classent comme une marchandise numérique. La mise à niveau "Cancun" a aligné XDC sur les dernières normes Ethereum, et XDC 2.0 a introduit une tolérance aux pannes byzantines avancée. Avec une capitalisation boursière d'environ 635 millions de dollars et un prix autour de 0,03 $, le spécialiste estime que XDC reste sous-évalué compte tenu de son potentiel sur le marché multi-billionnaire du financement du commerce.

bitcoinistIl y a 3 h

Que se passe-t-il avec l'altcoin XDC et pourquoi a-t-il récemment dépassé le Bitcoin ?

bitcoinistIl y a 3 h

Trading

Spot
Futures

Articles tendance

Qu'est ce que $S$

Comprendre SPERO : Un aperçu complet Introduction à SPERO Alors que le paysage de l'innovation continue d'évoluer, l'émergence des technologies web3 et des projets de cryptomonnaie joue un rôle central dans la façon dont se dessine l'avenir numérique. Un projet qui a attiré l'attention dans ce domaine dynamique est SPERO, désigné comme SPERO,$$s$. Cet article vise à rassembler et à présenter des informations détaillées sur SPERO, afin d'aider les passionnés et les investisseurs à comprendre ses fondations, ses objectifs et ses innovations dans les domaines du web3 et de la crypto. Qu'est-ce que SPERO,$$s$ ? SPERO,$$s$ est un projet unique dans l'espace crypto qui cherche à tirer parti des principes de décentralisation et de la technologie blockchain pour créer un écosystème qui favorise l'engagement, l'utilité et l'inclusion financière. Le projet est conçu pour faciliter les interactions entre pairs de nouvelles manières, offrant aux utilisateurs des solutions et des services financiers innovants. Au cœur de SPERO,$$s$, l'objectif est d'autonomiser les individus en fournissant des outils et des plateformes qui améliorent l'expérience utilisateur dans l'espace des cryptomonnaies. Cela inclut la possibilité de méthodes de transaction plus flexibles, la promotion d'initiatives dirigées par la communauté et la création de voies pour des opportunités financières via des applications décentralisées (dApps). La vision sous-jacente de SPERO,$$s$ tourne autour de l'inclusivité, visant à combler les lacunes au sein de la finance traditionnelle tout en exploitant les avantages de la technologie blockchain. Qui est le créateur de SPERO,$$s$ ? L'identité du créateur de SPERO,$$s$ reste quelque peu obscure, car il existe peu de ressources publiques fournissant des informations détaillées sur son ou ses fondateurs. Ce manque de transparence peut découler de l'engagement du projet envers la décentralisation—une éthique que de nombreux projets web3 partagent, privilégiant les contributions collectives plutôt que la reconnaissance individuelle. En centrant les discussions autour de la communauté et de ses objectifs collectifs, SPERO,$$s$ incarne l'essence de l'autonomisation sans désigner des individus spécifiques. Ainsi, comprendre l'éthique et la mission de SPERO reste plus important que d'identifier un créateur unique. Qui sont les investisseurs de SPERO,$$s$ ? SPERO,$$s$ est soutenu par une diversité d'investisseurs allant des capital-risqueurs aux investisseurs providentiels dédiés à favoriser l'innovation dans le secteur crypto. L'objectif de ces investisseurs s'aligne généralement avec la mission de SPERO—priorisant les projets qui promettent des avancées technologiques sociétales, l'inclusivité financière et la gouvernance décentralisée. Ces fondations d'investisseurs s'intéressent généralement à des projets qui non seulement offrent des produits innovants, mais qui contribuent également positivement à la communauté blockchain et à ses écosystèmes. Le soutien de ces investisseurs renforce SPERO,$$s$ en tant que concurrent notable dans le domaine en rapide évolution des projets crypto. Comment fonctionne SPERO,$$s$ ? SPERO,$$s$ utilise un cadre multifacette qui le distingue des projets de cryptomonnaie conventionnels. Voici quelques-unes des caractéristiques clés qui soulignent son unicité et son innovation : Gouvernance décentralisée : SPERO,$$s$ intègre des modèles de gouvernance décentralisée, permettant aux utilisateurs de participer activement aux processus de décision concernant l'avenir du projet. Cette approche favorise un sentiment de propriété et de responsabilité parmi les membres de la communauté. Utilité du token : SPERO,$$s$ utilise son propre token de cryptomonnaie, conçu pour servir diverses fonctions au sein de l'écosystème. Ces tokens permettent des transactions, des récompenses et la facilitation des services offerts sur la plateforme, améliorant ainsi l'engagement et l'utilité globaux. Architecture en couches : L'architecture technique de SPERO,$$s$ supporte la modularité et l'évolutivité, permettant une intégration fluide de fonctionnalités et d'applications supplémentaires à mesure que le projet évolue. Cette adaptabilité est primordiale pour maintenir la pertinence dans le paysage crypto en constante évolution. Engagement communautaire : Le projet met l'accent sur des initiatives dirigées par la communauté, utilisant des mécanismes qui incitent à la collaboration et aux retours d'expérience. En cultivant une communauté forte, SPERO,$$s$ peut mieux répondre aux besoins des utilisateurs et s'adapter aux tendances du marché. Accent sur l'inclusion : En proposant des frais de transaction bas et des interfaces conviviales, SPERO,$$s$ vise à attirer une base d'utilisateurs diversifiée, y compris des individus qui n'ont peut-être pas engagé auparavant dans l'espace crypto. Cet engagement envers l'inclusion s'aligne avec sa mission globale d'autonomisation par l'accessibilité. Chronologie de SPERO,$$s$ Comprendre l'histoire d'un projet fournit des aperçus cruciaux sur sa trajectoire de développement et ses jalons. Voici une chronologie suggérée cartographiant les événements significatifs dans l'évolution de SPERO,$$s$ : Phase de conceptualisation et d'idéation : Les idées initiales formant la base de SPERO,$$s$ ont été conçues, s'alignant étroitement avec les principes de décentralisation et de concentration sur la communauté au sein de l'industrie blockchain. Lancement du livre blanc du projet : Suite à la phase conceptuelle, un livre blanc complet détaillant la vision, les objectifs et l'infrastructure technologique de SPERO,$$s$ a été publié pour susciter l'intérêt et les retours de la communauté. Construction de la communauté et engagements précoces : Des efforts de sensibilisation actifs ont été entrepris pour construire une communauté d'adopteurs précoces et d'investisseurs potentiels, facilitant les discussions autour des objectifs du projet et recueillant du soutien. Événement de génération de tokens : SPERO,$$s$ a organisé un événement de génération de tokens (TGE) pour distribuer ses tokens natifs aux premiers soutiens et établir une liquidité initiale au sein de l'écosystème. Lancement de la première dApp : La première application décentralisée (dApp) associée à SPERO,$$s$ a été mise en ligne, permettant aux utilisateurs d'interagir avec les fonctionnalités principales de la plateforme. Développement continu et partenariats : Des mises à jour et des améliorations continues des offres du projet, y compris des partenariats stratégiques avec d'autres acteurs de l'espace blockchain, ont façonné SPERO,$$s$ en un acteur compétitif et évolutif sur le marché crypto. Conclusion SPERO,$$s$ se dresse comme un témoignage du potentiel du web3 et de la cryptomonnaie pour révolutionner les systèmes financiers et autonomiser les individus. Avec un engagement envers la gouvernance décentralisée, l'engagement communautaire et des fonctionnalités conçues de manière innovante, il ouvre la voie vers un paysage financier plus inclusif. Comme pour tout investissement dans l'espace crypto en rapide évolution, les investisseurs et utilisateurs potentiels sont encouragés à mener des recherches approfondies et à s'engager de manière réfléchie avec les développements en cours au sein de SPERO,$$s$. Le projet illustre l'esprit d'innovation de l'industrie crypto, invitant à une exploration plus approfondie de ses nombreuses possibilités. Bien que le parcours de SPERO,$$s$ soit encore en cours, ses principes fondamentaux pourraient en effet influencer l'avenir de nos interactions avec la technologie, la finance et entre nous dans des écosystèmes numériques interconnectés.

101 vues totalesPublié le 2024.12.17Mis à jour le 2024.12.17

Qu'est ce que $S$

Qu'est ce que AGENT S

Agent S : L'avenir de l'interaction autonome dans Web3 Introduction Dans le paysage en constante évolution de Web3 et des cryptomonnaies, les innovations redéfinissent constamment la manière dont les individus interagissent avec les plateformes numériques. Un projet pionnier, Agent S, promet de révolutionner l'interaction homme-machine grâce à son cadre agentique ouvert. En ouvrant la voie à des interactions autonomes, Agent S vise à simplifier des tâches complexes, offrant des applications transformantes dans l'intelligence artificielle (IA). Cette exploration détaillée plongera dans les subtilités du projet, ses caractéristiques uniques et les implications pour le domaine des cryptomonnaies. Qu'est-ce qu'Agent S ? Agent S se présente comme un cadre agentique ouvert révolutionnaire, spécifiquement conçu pour relever trois défis fondamentaux dans l'automatisation des tâches informatiques : Acquisition de connaissances spécifiques au domaine : Le cadre apprend intelligemment à partir de diverses sources de connaissances externes et d'expériences internes. Cette approche double lui permet de construire un riche répertoire de connaissances spécifiques au domaine, améliorant ainsi sa performance dans l'exécution des tâches. Planification sur de longs horizons de tâches : Agent S utilise une planification hiérarchique augmentée par l'expérience, une approche stratégique qui facilite la décomposition et l'exécution efficaces de tâches complexes. Cette fonctionnalité améliore considérablement sa capacité à gérer plusieurs sous-tâches de manière efficace et efficiente. Gestion d'interfaces dynamiques et non uniformes : Le projet introduit l'Interface Agent-Ordinateur (ACI), une solution innovante qui améliore l'interaction entre les agents et les utilisateurs. En utilisant des Modèles de Langage Multimodaux de Grande Taille (MLLMs), Agent S peut naviguer et manipuler sans effort diverses interfaces graphiques. Grâce à ces fonctionnalités pionnières, Agent S fournit un cadre robuste qui aborde les complexités impliquées dans l'automatisation de l'interaction humaine avec les machines, préparant le terrain pour d'innombrables applications en IA et au-delà. Qui est le créateur d'Agent S ? Bien que le concept d'Agent S soit fondamentalement innovant, des informations spécifiques sur son créateur restent insaisissables. Le créateur est actuellement inconnu, ce qui souligne soit le stade naissant du projet, soit le choix stratégique de garder les membres fondateurs sous le radar. Quoi qu'il en soit, l'accent reste mis sur les capacités et le potentiel du cadre. Qui sont les investisseurs d'Agent S ? Étant donné qu'Agent S est relativement nouveau dans l'écosystème cryptographique, des informations détaillées concernant ses investisseurs et soutiens financiers ne sont pas explicitement documentées. Le manque d'aperçus publiquement disponibles sur les fondations d'investissement ou les organisations soutenant le projet soulève des questions sur sa structure de financement et sa feuille de route de développement. Comprendre le soutien est crucial pour évaluer la durabilité du projet et son impact potentiel sur le marché. Comment fonctionne Agent S ? Au cœur d'Agent S se trouve une technologie de pointe qui lui permet de fonctionner efficacement dans divers environnements. Son modèle opérationnel est construit autour de plusieurs caractéristiques clés : Interaction homme-ordinateur semblable à l'humain : Le cadre offre une planification IA avancée, s'efforçant de rendre les interactions avec les ordinateurs plus intuitives. En imitant le comportement humain dans l'exécution des tâches, il promet d'élever l'expérience utilisateur. Mémoire narrative : Utilisée pour tirer parti des expériences de haut niveau, Agent S utilise la mémoire narrative pour suivre les historiques de tâches, améliorant ainsi ses processus de prise de décision. Mémoire épisodique : Cette fonctionnalité fournit aux utilisateurs un accompagnement étape par étape, permettant au cadre d'offrir un soutien contextuel au fur et à mesure que les tâches se déroulent. Support pour OpenACI : Avec la capacité de fonctionner localement, Agent S permet aux utilisateurs de garder le contrôle sur leurs interactions et flux de travail, s'alignant avec l'éthique décentralisée de Web3. Intégration facile avec des API externes : Sa polyvalence et sa compatibilité avec diverses plateformes IA garantissent qu'Agent S peut s'intégrer sans effort dans des écosystèmes technologiques existants, en faisant un choix attrayant pour les développeurs et les organisations. Ces fonctionnalités contribuent collectivement à la position unique d'Agent S dans l'espace crypto, alors qu'il automatise des tâches complexes en plusieurs étapes avec un minimum d'intervention humaine. À mesure que le projet évolue, ses applications potentielles dans Web3 pourraient redéfinir la manière dont les interactions numériques se déroulent. Chronologie d'Agent S Le développement et les jalons d'Agent S peuvent être encapsulés dans une chronologie qui met en évidence ses événements significatifs : 27 septembre 2024 : Le concept d'Agent S a été lancé dans un document de recherche complet intitulé “Un cadre agentique ouvert qui utilise les ordinateurs comme un humain”, présentant les bases du projet. 10 octobre 2024 : Le document de recherche a été rendu publiquement disponible sur arXiv, offrant une exploration approfondie du cadre et de son évaluation de performance basée sur le benchmark OSWorld. 12 octobre 2024 : Une présentation vidéo a été publiée, fournissant un aperçu visuel des capacités et des caractéristiques d'Agent S, engageant davantage les utilisateurs et investisseurs potentiels. Ces jalons dans la chronologie illustrent non seulement les progrès d'Agent S, mais indiquent également son engagement envers la transparence et l'engagement communautaire. Points clés sur Agent S Alors que le cadre Agent S continue d'évoluer, plusieurs attributs clés se distinguent, soulignant sa nature innovante et son potentiel : Cadre innovant : Conçu pour offrir une utilisation intuitive des ordinateurs semblable à l'interaction humaine, Agent S propose une approche nouvelle de l'automatisation des tâches. Interaction autonome : La capacité d'interagir de manière autonome avec les ordinateurs via une interface graphique signifie un bond vers des solutions informatiques plus intelligentes et efficaces. Automatisation des tâches complexes : Avec sa méthodologie robuste, il peut automatiser des tâches complexes en plusieurs étapes, rendant les processus plus rapides et moins sujets aux erreurs. Amélioration continue : Les mécanismes d'apprentissage permettent à Agent S de s'améliorer grâce à ses expériences passées, améliorant continuellement sa performance et son efficacité. Polyvalence : Son adaptabilité à travers différents environnements d'exploitation comme OSWorld et WindowsAgentArena garantit qu'il peut servir un large éventail d'applications. Alors qu'Agent S se positionne dans le paysage Web3 et crypto, son potentiel à améliorer les capacités d'interaction et à automatiser les processus représente une avancée significative dans les technologies IA. Grâce à son cadre innovant, Agent S incarne l'avenir des interactions numériques, promettant une expérience plus fluide et efficace pour les utilisateurs à travers divers secteurs. Conclusion Agent S représente un saut audacieux en avant dans le mariage de l'IA et de Web3, avec la capacité de redéfinir notre interaction avec la technologie. Bien qu'il soit encore à ses débuts, les possibilités de son application sont vastes et convaincantes. Grâce à son cadre complet abordant des défis critiques, Agent S vise à mettre les interactions autonomes au premier plan de l'expérience numérique. À mesure que nous plongeons plus profondément dans les domaines des cryptomonnaies et de la décentralisation, des projets comme Agent S joueront sans aucun doute un rôle crucial dans la façon dont la technologie et la collaboration homme-machine évolueront à l'avenir.

770 vues totalesPublié le 2025.01.14Mis à jour le 2025.01.14

Qu'est ce que AGENT S

Comment acheter S

Bienvenue sur HTX.com ! Nous vous permettons d'acheter Sonic (S) de manière simple et pratique. Suivez notre guide étape par étape pour commencer votre parcours crypto.Étape 1 : Création de votre compte HTXUtilisez votre adresse e-mail ou votre numéro de téléphone pour ouvrir un compte sur HTX gratuitement. L'inscription se fait en toute simplicité et débloque toutes les fonctionnalités.Créer mon compteÉtape 2 : Choix du mode de paiement (rubrique Acheter des cryptosCarte de crédit/débit : utilisez votre carte Visa ou Mastercard pour acheter instantanément Sonic (S).Solde :utilisez les fonds du solde de votre compte HTX pour trader en toute simplicité.Prestataire tiers :pour accroître la commodité d'utilisation, nous avons ajouté des modes de paiement populaires tels que Google Pay et Apple Pay.P2P :tradez directement avec d'autres utilisateurs sur HTX.OTC (de gré à gré) : nous offrons des services personnalisés et des taux de change compétitifs aux traders.Étape 3 : stockage de vos Sonic (S)Après avoir acheté vos Sonic (S), stockez-les sur votre compte HTX. Vous pouvez également les envoyer ailleurs via un transfert sur la blockchain ou les utiliser pour trader d'autres cryptos.Étape 4 : tradez des Sonic (S)Tradez facilement Sonic (S) sur le marché Spot de HTX. Il vous suffit d'accéder à votre compte, de sélectionner la paire de trading, d'exécuter vos trades et de les suivre en temps réel. Nous offrons une expérience conviviale aux débutants comme aux traders chevronnés.

1.5k vues totalesPublié le 2025.01.15Mis à jour le 2025.03.21

Comment acheter S

Discussions

Bienvenue dans la Communauté HTX. Ici, vous pouvez vous tenir informé(e) des derniers développements de la plateforme et accéder à des analyses de marché professionnelles. Les opinions des utilisateurs sur le prix de S (S) sont présentées ci-dessous.

活动图片