Y Combinator CEO's AI Usage Guide: The Future Belongs to Those Who Build Compound Interest Systems

marsbitXuất bản vào 2026-05-11Cập nhật gần nhất vào 2026-05-11

Tóm tắt

The article presents the vision of using AI not as a simple chatbot, but as a personalized operating system that creates compounding value. The author, Y Combinator CEO Garry Tan, details his system, built on open-source tools, which continuously structures all his inputs—meetings, books, emails—into a vast, interconnected "second brain." He describes concrete examples like "book mirroring," where a book's content is analyzed and mapped to his personal context, and automated meeting preparation that leverages accumulated knowledge. The core philosophy is "skillification": turning recurring tasks into reusable, self-improving "skills" that form the system's building blocks. A key insight is the "meta-skill" that creates new skills, ensuring continuous improvement. The architecture consists of a thin "harness" for routing, thick "skills" for specific tasks, and thick "data"—a 100,000-page knowledge base. The author argues the future belongs to individuals who build such personalized, compounding AI systems, not just those using centralized tools. He concludes by encouraging readers to start building their own systems using the open-sourced framework he provides.

Editor's Note: While most people still see AI as a smarter chat window, Y Combinator's current CEO, Garry Tan, is already trying to turn it into a personal operating system.

The underlying structure of personal productivity in the AI era is changing: models are just engines; what truly generates compound interest is the entire system built around personal knowledge, workflows, context, and judgment.

In this system, every meeting, every book, every email, and every connection is no longer an isolated piece of information but is continuously written into a structured 'second brain.' Every recurring task no longer relies on temporary prompts but is abstracted into reusable skills that are continuously iterated in subsequent work. In other words, AI doesn't just help people complete tasks; it helps individuals productize, systematize, and infrastructure-ize their own way of working.

Even more noteworthy is that the author proposes a personal path different from centralized AI tools: future competitiveness may not belong only to those who can use AI, but to those who can train a compound-interest AI system around their real life and work. Chatbots give answers, search engines provide information, but a true personal AI system remembers your background, understands your context, inherits your judgment, and becomes stronger with every use.

This is also the most enlightening part of this article: the value of AI does not lie in what it generates once, but in whether it can become a nervous system that continuously accumulates, connects, and improves. For individuals, this is perhaps the true starting point of an 'AI-native way of working.'

Below is the original text:

People always ask me why I spend my nights coding until 2 a.m. I have a job, and a heavy one—I am the CEO of Y Combinator. We help thousands of entrepreneurs every year achieve their dreams: starting real, revenue-generating, fast-growing startups.

Over the past 5 months, AI has turned me back into a builder. By the end of last year, the tools were good enough for me to start building again. Not toy projects, but systems that can truly compound. I want to show you with concrete examples what it actually looks like when you stop treating your personal AI as a chat window and start treating it as an operating system. I'm open-sourcing this stuff and writing about it because I want you to speed up with me.

This is part of a series: 'Fat Skills, Fat Code, Thin Harness' introduces the core architecture; 'Resolvers' talks about the intelligent routing table; 'The LOC Controversy' discusses how every technologist can amplify themselves 100x to 1000x; 'Naked models are stupider' argues that models are just engines, not the whole car; and the 'skillify manifesto' explains why LangChain raised $160 million but gave you a squat rack and dumbbells without a training plan, while this article gives you the training plan you actually need.

That Book That 'Read Me Backwards'

Last month, I was reading Pema Chödrön's 'When Things Fall Apart.' The book is 162 pages, 22 chapters, about Buddhism's view on suffering, groundlessness, and letting go. A friend recommended it to me during a difficult time.

I had my AI do a 'book mirror.'

Specifically, this means: the system extracted the full content of all 22 chapters, then ran a sub-agent for each chapter, doing two things simultaneously: summarizing the author's ideas and mapping every point to my real life.

Not vague platitudes like 'this also applies to leaders,' but very specific mappings. It knows my family background: immigrant parents, father from Hong Kong and Singapore, mother from Myanmar. It knows my professional context: I'm managing YC, building open-source tools, mentoring thousands of founders. It knows what I've been reading recently, what I'm thinking at 2 a.m., what issues I'm working on with my therapist.

The final output was a 30,000-word 'brain page.' Each chapter was presented in two columns: one column for what Pema was saying, the other for how that content mapped to what I'm actually experiencing. The chapter on 'groundlessness' connected to a specific conversation I had with a founder the week before; the chapter on 'fear' mapped to behavioral patterns my therapist had pointed out; the chapter on 'letting go' referenced something I wrote late at night—about the creative freedom I found this year.

The whole process took about 40 minutes. A therapist charging $300 an hour couldn't do this in 40 hours, even after reading the book and applying it to my life. Because they don't have my full professional context, reading history, meeting notes, and founder network loaded and cross-referenceable.

So far, I've processed over 20 books this way: 'Amplified' (Dion Lim), 'The Autobiography of Bertrand Russell,' 'Designing Your Life,' 'The Drama of the Gifted Child,' 'Finite and Infinite Games,' 'Gift from the Sea' (Lindbergh), 'Siddhartha' (Hesse), 'Steppenwolf' (Hesse), 'The Art of Doing Science and Engineering' (Hamming), 'The Dream Machine,' 'The Book on the Taboo Against Knowing Who You Are' (Alan Watts), 'What Do You Care What Other People Think?' (Feynman), 'When Things Fall Apart' (Pema Chödrön), 'A Brief History of Everything' (Ken Wilber), etc.

Each book makes this 'brain' richer. The second mirror knows the content of the first, the twentieth mirror knows all the content of the previous nineteen.

How Book-Mirror Got Better Through Iteration

The first time I did a book mirror, it was terrible.

In the first version, there were three factual errors about my family. It said my parents were divorced, but they're not; it said I grew up in Hong Kong, but I was actually born in Canada. These were basic mistakes that would have destroyed trust if I shared the results.

So I added a mandatory fact-checking step. Now, every mirror runs a cross-modal evaluation against known facts in the brain before delivery. Opus 4.7 1M catches precision errors; GPT-5.5 finds missing context; DeepSeek V4-Pro judges if something sounds too generic.

Later, I upgraded it to deep retrieval based on GBrain tool calls. The initial version was good at synthesis but weak on specificity. The third version started doing section-by-section brain searches. Every item in the right column would cite a real, existing brain page.

When the book talked about handling difficult conversations, it wouldn't just summarize generic principles. It would pull up real meeting notes from my sessions with founders who were having tough conversations with co-founders; or an idea that popped up during a casual chat with my brother James on a Thursday; or an instant messenger chat record from when I was 19 with my college roommate. It feels surreal.

This is what 'skillification' (/skillify in GBrain) means in practice. I distilled that first manual attempt into a repeatable pattern, wrote it into a tested skill file with triggers and edge cases. Since then, every fix compounds in all future book mirrors.

The Skill That Can Create Skills

Here's where it gets truly recursive, and I think this is the biggest insight.

The system that powers my daily life didn't appear as one giant monolith. It was assembled from skills. And those skills themselves were created by another skill.

Skillify is a 'meta-skill'—a skill for creating new skills. Whenever I encounter a workflow I'll repeat in the future, I say: 'Skillify this.' It then looks back at what just happened, extracts the repeatable pattern, writes it into a tested skill file with triggers and edge cases, and registers it with the resolver.

The book-mirror pipeline I mentioned earlier was skillified after I did it manually the first time. The meeting-prep workflow was the same: when I realized I was doing the same steps before every call, I skillified it.

Skills can be composed. Book-mirror calls brain-ops for storage, enrich for context supplementation, cross-modal-eval for quality assessment, pdf-generation for output. Each skill focuses on one thing, but they can chain together to form complex workflows.

When I improve one skill, all workflows using that skill automatically get better. No more 'I forgot to mention this edge case in the prompt.' The skill remembers.

The Meeting That Prepared Itself

Demis Hassabis came to YC for a fireside chat. Sebastian Mallaby's biography of him had just been published.

I had the system help me prepare.

In under two minutes, it pulled up: Demis's complete brain page—accumulated for months from articles, podcast transcripts, and my own notes; his publicly stated views on AGI timelines, like '50% scaling, 50% innovation,' and his belief that AGI is 5–10 years away; highlights from Mallaby's biography; his stated research priorities, including continual learning, world models, and long-term memory; cross-references between his publicly discussed AI views and mine; three demo scripts for showing off this 'brain's' multi-hop reasoning during the talk; and a set of conversation entry points based on where our worldviews overlap and diverge.

This wasn't just a better Google search. It was contextual preparation: the system used not only my long-accumulated information about Demis but also my own positions and the strategic goals of this conversation.

It prepared not just facts, but angles.

What a 100,000-Page Brain Looks Like

I maintain a structured knowledge base of about 100,000 pages.

Everyone I encounter gets a page with a timeline, a status bar—the current reality, open threads, and a score. Every meeting gets a transcript, a structured summary, and a process I call 'entity propagation': after each meeting, the system traverses every person and company mentioned and updates their brain page with the discussion content.

Every book I read gets a chapter-by-chapter book mirror. Every article, podcast, video I engage with is ingested, tagged, and cross-referenced.

The schema is simple. Each page has three parts: at the top is the 'compiled truth'—the current best understanding; below is an append-only timeline of events in chronological order; on the side is a raw data sidecar for source materials.

Think of it as a personal Wikipedia. Each page is continuously updated by an AI that attended the meeting, read the email, watched the talk, and digested the PDF.

Here's an example of how such a system compounds.

I see a founder during office hours. The system creates or updates their personal page, company page, cross-references meeting notes, checks if I've met them before—if so, surfaces what we talked about last time; it checks their application, pulls latest metrics, and identifies anyone in my portfolio or network who could help with their problem.

By the next time I walk into a meeting with them, the system has prepared a full context pack.

This is the difference between a 'filing cabinet' and a 'nervous system.' A filing cabinet just stores things; a nervous system connects them, flags what changed, and surfaces what's most relevant in the moment.

Architecture

Here's how it works. I think this is the right path to building personal AI, so I open-sourced the whole thing. You can build it yourself.

The harness is thin. OpenClaw is the runtime. It receives my messages, decides which skill applies, and dispatches. Only a few thousand lines of routing logic. It doesn't know about books, meetings, or founders; it just routes.

Skills are fat. There are over 100 now, each a self-contained markdown file with detailed instructions for a specific task. You've seen book-mirror and meeting-prep already. Here are a few others that come with GBrain:

meeting-ingestion: After each meeting, it pulls the transcript, generates a structured summary, then traverses every person and company mentioned, updating their brain page with the discussion. The meeting page itself isn't the end product; the real value is propagating that information back to individual and company pages.

enrich: Give it a person's name. It pulls information from five different sources, merges everything into a brain page, including career trajectory, contact info, meeting history, and relationship context. Every judgment has a source citation.

media-ingest: Handles video, audio, PDF, screenshots, GitHub repos. It transcribes, extracts entities, and files materials into the correct brain location. I use it often for YouTube videos, podcasts, and voice memos.

perplexity-research: This is web research with brain augmentation. It searches the web via Perplexity, but before synthesizing, it checks what the brain already knows, telling you what information is truly new versus what you've already captured.

I've built dozens more skills for my own work that I'll likely open-source later: email-triage, investor-update-ingest—which identifies portfolio updates in my inbox and extracts metrics to company pages; calendar-check—for detecting schedule conflicts and impossible travel; and a whole news research stack I use for public affairs work.

Each skill encodes operational knowledge that would take a new human assistant months to learn. People ask me how I 'prompt' my AI. The answer: I don't. The skill *is* the prompt.

Data is fat. The brain repo has 100,000 pages of structured knowledge. Every person, company, meeting, book, article, idea I've engaged with is connected, searchable, and growing daily.

Code is also fat. The code that feeds it matters too: scripts for transcription, OCR, social media archiving, calendar syncing, API integrations. But where the compound value truly sediments is in the data.

I run over 100 cron jobs daily checking everything I care about: social media, Slack, email, and any other signal I watch. My OpenClaw/Hermes Agents also watch these things for me.

Models are swappable. For precision, I use Opus 4.7 1M; for recall and exhaustive extraction, GPT-5.5; for creative work and third-person perspective, DeepSeek V4-Pro; for speed, Groq with Llama. The skill decides which model to call for which task. The harness doesn't care.

When people ask 'which AI model is best?' the answer is: you're asking the wrong question. Models are just engines; everything else is the car.

The 2 A.M. Builder, and a System That Compounds

People ask me about productivity. But that's not how I think.

I think about compound interest.

Every meeting I attend adds to this brain. Every book I read enriches the context for the next one. Every skill I build makes the next workflow faster. Every person page I update makes the next meeting preparation sharper.

The system today is 10x what it was two months ago. In another two months, it will be 10x again.

When I'm coding at 2 a.m.—and I often am, because AI has given me back the joy of building—I'm not just writing software. I'm adding capability to a system that gets better every hour.

100 cronjobs run 24/7. Meeting ingestion happens automatically. Email triage runs every 10 minutes. The knowledge graph enriches itself from every conversation. The system processes daily transcripts and extracts patterns I didn't notice in real-time.

This isn't a writing tool, a search engine, or a chatbot.

It's a truly runnable second brain. It's not a metaphor; it's a running system: 100,000 pages, over 100 skills, 15 cron jobs, and the context accumulated from every professional relationship, meeting, book, and idea I've engaged with over the past year.

I've open-sourced the whole tech stack. GStack is a coding skill framework with over 87,000 stars, and I built this system with it. When an agent needs to write code, I still use it as a skill within my OpenClaw/Hermes Agents. It also has a great programmable browser, both headed and headless.

GBrain is the knowledge infrastructure. OpenClaw and Hermes Agent are harnesses—you can pick one, but I typically use both. The data repos are also on GitHub.

The core thesis is simple: the future belongs to individuals who can build compounding AI systems, not to those who only use corporate-owned, centralized AI tools.

The difference between the two is like the difference between keeping a diary and having a nervous system.

How to Start

If you also want to build such a system:

First, pick a harness. You can use OpenClaw, Hermes Agent, or build from scratch based on Pi. The key is to keep it light. The harness is just a router. You can deploy it on a spare computer at home and access it via Tailscale, or put it on a cloud service like Render or Railway.

Then, build a 'brain' with GBrain. I was initially inspired by Karpathy's LLM Wiki, implemented it in OpenClaw, and later expanded it into GBrain. It's the best retrieval system I've tested: 97.6% recall on LongMemEval, surpassing MemPalace in the retrieval step without calling an LLM. It comes with 39 installable skills, including everything mentioned in this article. Just one command to install. You get a git repo where every person, meeting, article, idea gets its own page.

Next, do one thing that's actually interesting. Don't start by planning your skill architecture. First, complete a concrete task: write a report, research a person, download a season of NBA scores and build a prediction model for your sports betting, analyze your portfolio, or do anything you genuinely care about. Do it with your agent, iterate until the results are good enough, then run Skillify—the meta-skill mentioned earlier—to extract the pattern into a reusable skill. Then run check_resolvable to confirm the new skill is hooked into the resolver. This cycle turns one-off work into infrastructure that keeps compounding.

Keep using it and read the output carefully. The skill will be mediocre at first. That's the point. Use it, read what it generates, and when you find something wrong, run cross-modal eval: give the output to multiple models and have them score each other based on the dimensions you care about. That's how I found the factual errors in book-mirror initially. The fix was written into the skill, and every mirror since has been cleaner.

Six months from now, you'll have something no chatbot can replicate. Because the real value isn't in the model itself, but in you teaching this system to understand your specific life, work, and judgment.

The first thing I made with this system was terrible. By the hundredth, it was a system I'd trust with my calendar, inbox, meeting prep, and reading list. The system is learning, and I'm learning. The compound curve is real.

Fat skills, fat code, thin harness. The LLM itself is just an engine. You can absolutely build your own car.

Everything I described here—all the skills, book-mirror pipeline, cross-modal eval framework, skillify loop, resolver architecture, and over 30 installable skillpacks—is already open-sourced and free on GitHub.

Go build.

Câu hỏi Liên quan

QWhat is the core distinction Gary Tan makes between using AI as a chat interface and as an operating system for personal productivity?

AThe core distinction is between using AI as a one-off tool for answers (like a smarter chat window) versus building a 'compounding system' around one's knowledge, workflows, context, and judgment. The 'AI operating system' acts as a 'second brain' that structures all information—meetings, books, emails, relationships—into an interconnected, searchable knowledge base. It remembers context, inherits judgment, and grows stronger with each use, enabling a productized, systematic, and infrastructural approach to work that generates long-term compound interest.

QWhat is 'skillification' as described in the article, and why is it critical for building a compounding AI system?

A'Skillification' is the process of abstracting a repeatable workflow or task into a reusable, testable 'skill' file (like a markdown file) with defined triggers and edge cases. Once skillified, this pattern can be registered to a resolver and used in future automated workflows. It is critical because it transforms one-off manual efforts into permanent, compounding infrastructure. When a skill is improved, every future workflow using that skill automatically benefits, preventing issues like forgotten prompt details and allowing continuous refinement and integration.

QExplain the architecture of Gary Tan's personal AI system as outlined in the 'Architecture' section.

AThe architecture is based on a 'thin harness, fat skills, fat data, thin code' principle. The harness (e.g., OpenClaw/Hermes Agent) is a thin, minimal router that receives input and dispatches it to the appropriate skill. The 'fat' part comprises over 100 self-contained skills, each encoding operational knowledge for a specific task (e.g., meeting-ingestion, book-mirror, enrich). These skills act as the prompts and workflows. Data is also 'fat'—a ~100,000-page structured 'brain' (knowledge base built with GBrain) that contains interconnected pages for people, companies, meetings, books, etc. The models (e.g., Opus, GPT, DeepSeek) are interchangeable engines selected by the skills based on the task's needs.

QHow does the 'book mirror' process work, and what makes it more powerful than simply reading a book summary?

AThe 'book mirror' process involves extracting all chapters of a book and running a sub-agent for each chapter to perform two tasks simultaneously: summarize the author's ideas and map each point directly to specific, contextual details from the user's real life stored in the 'brain.' This produces a two-column 'brain page' where one column is the book's content and the other is the personal, contextual mapping. It is more powerful because it doesn't offer generic advice; it connects the book's concepts to the user's unique background, recent conversations, therapy notes, family history, and professional context. The system's knowledge compounds with each mirrored book, making later analyses richer and more interconnected.

QWhat is the key advantage Gary Tan claims for individuals who build their own compounding AI systems versus those who only use centralized AI tools?

AThe key advantage is that a personally built compounding AI system becomes a true, evolving 'nervous system' uniquely tuned to the individual's life, work, and judgment. Unlike centralized tools (chatbots, search engines) that provide one-off answers or information, a personal system continuously accumulates, connects, and improves based on the user's specific context—every meeting, book, and email enriches it. This creates a competitive moat and compound interest that cannot be replicated by generic tools. The value lies not in the AI model itself, but in the deeply personalized, interconnected data and workflows the user teaches the system, making it grow exponentially more useful over time.

Nội dung Liên quan

Bài diễn văn của Jensen Huang tại CMU: Kỷ nguyên AI, đừng đứng nhìn, hãy xây dựng

Trong bài phát biểu của mình tại Đại học Carnegie Mellon, Jensen Huang đã chia sẻ hành trình từ một người nhập cư đến CEO của NVIDIA và nêu bật những cơ hội to lớn trong kỷ nguyên AI. Ông nhấn mạnh rằng AI không chỉ là một công cụ công nghệ mà còn đang tái định nghĩa lại ngành công nghiệp tính toán, mở ra một thời đại công nghiệp mới với sự đầu tư hàng nghìn tỷ USD vào cơ sở hạ tầng. Huang thừa nhận AI mang lại những thách thức và sự không chắc chắn, chẳng hạn như tự động hóa một số công việc, nhưng ông phân biệt giữa "nhiệm vụ" và "mục đích" của công việc. AI sẽ thay đổi cách thức thực hiện nhiệm vụ chứ không thay thế khả năng đặt câu hỏi, xác định mục tiêu và chịu trách nhiệm của con người. Nguy cơ thực sự không phải là AI thay thế con người, mà là những người không biết sử dụng AI sẽ bị tụt lại phía sau. Ông kêu gọi mọi người tham gia xây dựng tương lai một cách có trách nhiệm và lạc quan. Đối với sinh viên tốt nghiệp năm 2026, đây là thời điểm đặc biệt để bắt đầu sự nghiệp, nắm lấy cơ hội tái công nghiệp hóa nước Mỹ và tạo ra một tương lai thịnh vượng hơn. Thông điệp cốt lõi của ông là: Đừng chỉ đứng nhìn tương lai, hãy đặt cả trái tim vào công việc và tự tay xây dựng nó.

marsbit59 phút trước

Bài diễn văn của Jensen Huang tại CMU: Kỷ nguyên AI, đừng đứng nhìn, hãy xây dựng

marsbit59 phút trước

Đã đến lúc các nhà văn loài người phải tự chứng minh mình không phải là máy móc

Ngày Henry Kissinger qua đời, gia đình còn đang chuẩn bị điếu văn thì trên Amazon đã xuất hiện hàng chục cuốn tiểu sử viết về ông, với bìa sách in sai chính tả tên ông và nội dung chỉ là những lời lặp đi lặp lại vô nghĩa. Từ lúc cáo phó đến lúc sách lên kệ chưa đầy ba tiếng. Đây không phải là sự cố đơn lẻ. Kể từ khi ChatGPT ra đời, sách do AI tạo ra đã tràn ngập các nền tảng như Amazon. Đến cuối năm 2025, lượng sách mới lên kệ mỗi tháng lên tới 300.000 cuốn. Có người lợi dụng sự qua đời của người nổi tiếng để sản xuất hàng loạt tiểu sử giả mạo, có người mạo danh chuyên gia bán sách giả, thậm chí có những cuốn hướng dẫn hái nấm chứa thông tin sai lệch nguy hiểm đến tính mạng. Năm 2026, ngay cả các nhà xuất bản truyền thống cũng không tránh khỏi. Một tiểu thuyết kinh dị bán chạy của tập đoàn xuất bản lớn Hachette đã bị gỡ xuống vì có 78% nội dung nghi do AI tạo ra. Sự kiện này dẫn đến làn sóng phản đối. Hiệp hội Sách Pháp đã buộc Amazon rút khỏi Hội chợ Sách Paris. Tại Hội chợ Sách London, khoảng 10.000 nhà văn đã cùng "xuất bản" một cuốn sách 88 trang mang tên "Đừng ăn cắp cuốn sách này", bên trong chỉ toàn chữ ký của họ, không có một câu chữ nào. Trong thời đại AI có thể sản xuất hàng loạt văn bản, sự trống rỗng đã trở thành vũ khí phản kháng của các tác giả con người. Để khôi phục niềm tin, Hiệp hội Tác giả Mỹ đã đưa ra chương trình "Chứng nhận Tác giả Con người". Điều này cho thấy một tín hiệu nghịch lý: nghĩa vụ chứng minh đã đảo ngược. Giờ đây, không phải AI cần chứng minh mình có đủ tư cách xuất bản, mà chính các tác giả con người phải tự chứng minh mình không phải là cỗ máy.

marsbit1 giờ trước

Đã đến lúc các nhà văn loài người phải tự chứng minh mình không phải là máy móc

marsbit1 giờ trước

Giao dịch

Giao ngay
Hợp đồng Tương lai

Bài viết Nổi bật

AGENT S là gì

Agent S: Tương Lai của Tương Tác Tự Động trong Web3 Giới thiệu Trong bối cảnh không ngừng phát triển của Web3 và tiền điện tử, các đổi mới đang liên tục định nghĩa lại cách mà cá nhân tương tác với các nền tảng kỹ thuật số. Một dự án tiên phong như vậy, Agent S, hứa hẹn sẽ cách mạng hóa tương tác giữa con người và máy tính thông qua khung tác nhân mở của nó. Bằng cách mở đường cho các tương tác tự động, Agent S nhằm đơn giản hóa các nhiệm vụ phức tạp, cung cấp các ứng dụng chuyển đổi trong trí tuệ nhân tạo (AI). Cuộc khám phá chi tiết này sẽ đi sâu vào những phức tạp của dự án, các tính năng độc đáo của nó và những tác động đối với lĩnh vực tiền điện tử. Agent S là gì? Agent S đứng vững như một khung tác nhân mở đột phá, được thiết kế đặc biệt để giải quyết ba thách thức cơ bản trong việc tự động hóa các nhiệm vụ máy tính: Thu thập Kiến thức Cụ thể theo Miền: Khung này học một cách thông minh từ nhiều nguồn kiến thức bên ngoài và kinh nghiệm nội bộ. Cách tiếp cận kép này giúp nó xây dựng một kho lưu trữ phong phú về kiến thức cụ thể theo miền, nâng cao hiệu suất của nó trong việc thực hiện nhiệm vụ. Lập Kế Hoạch Qua Các Tầm Nhìn Nhiệm Vụ Dài Hạn: Agent S sử dụng lập kế hoạch phân cấp tăng cường kinh nghiệm, một cách tiếp cận chiến lược giúp phân chia và thực hiện các nhiệm vụ phức tạp một cách hiệu quả. Tính năng này nâng cao đáng kể khả năng quản lý nhiều nhiệm vụ con một cách hiệu quả và hiệu suất. Xử Lý Các Giao Diện Động, Không Đều: Dự án giới thiệu Giao Diện Tác Nhân-Máy Tính (ACI), một giải pháp đổi mới giúp nâng cao tương tác giữa các tác nhân và người dùng. Sử dụng các Mô Hình Ngôn Ngữ Lớn Đa Phương Thức (MLLMs), Agent S có thể điều hướng và thao tác các giao diện người dùng đồ họa đa dạng một cách liền mạch. Thông qua những tính năng tiên phong này, Agent S cung cấp một khung vững chắc giải quyết các phức tạp liên quan đến việc tự động hóa tương tác giữa con người với máy móc, mở ra nhiều ứng dụng trong AI và hơn thế nữa. Ai là Người Tạo ra Agent S? Mặc dù khái niệm về Agent S là hoàn toàn đổi mới, thông tin cụ thể về người sáng lập vẫn còn mơ hồ. Người sáng lập hiện vẫn chưa được biết đến, điều này làm nổi bật giai đoạn sơ khai của dự án hoặc sự lựa chọn chiến lược để giữ kín các thành viên sáng lập. Bất chấp sự ẩn danh, sự chú ý vẫn tập trung vào khả năng và tiềm năng của khung này. Ai là Các Nhà Đầu Tư của Agent S? Vì Agent S còn tương đối mới trong hệ sinh thái mã hóa, thông tin chi tiết về các nhà đầu tư và những người tài trợ tài chính của nó không được ghi chép rõ ràng. Sự thiếu vắng thông tin công khai về các nền tảng đầu tư hoặc tổ chức hỗ trợ dự án dấy lên câu hỏi về cấu trúc tài trợ và lộ trình phát triển của nó. Hiểu biết về sự hỗ trợ là rất quan trọng để đánh giá tính bền vững và tác động tiềm năng của dự án. Agent S Hoạt Động Như Thế Nào? Tại cốt lõi của Agent S là công nghệ tiên tiến cho phép nó hoạt động hiệu quả trong nhiều bối cảnh khác nhau. Mô hình hoạt động của nó được xây dựng xung quanh một số tính năng chính: Tương Tác Giống Như Con Người: Khung này cung cấp lập kế hoạch AI tiên tiến, cố gắng làm cho các tương tác với máy tính trở nên trực quan hơn. Bằng cách bắt chước hành vi của con người trong việc thực hiện nhiệm vụ, nó hứa hẹn nâng cao trải nghiệm người dùng. Ký Ức Tường Thuật: Được sử dụng để tận dụng các trải nghiệm cấp cao, Agent S sử dụng ký ức tường thuật để theo dõi lịch sử nhiệm vụ, từ đó nâng cao quy trình ra quyết định của nó. Ký Ức Tình Huống: Tính năng này cung cấp cho người dùng hướng dẫn từng bước, cho phép khung này cung cấp hỗ trợ theo ngữ cảnh khi các nhiệm vụ diễn ra. Hỗ Trợ OpenACI: Với khả năng chạy cục bộ, Agent S cho phép người dùng duy trì quyền kiểm soát đối với các tương tác và quy trình làm việc của họ, phù hợp với tinh thần phi tập trung của Web3. Tích Hợp Dễ Dàng với Các API Bên Ngoài: Tính linh hoạt và khả năng tương thích với nhiều nền tảng AI khác nhau đảm bảo rằng Agent S có thể hòa nhập liền mạch vào các hệ sinh thái công nghệ hiện có, làm cho nó trở thành lựa chọn hấp dẫn cho các nhà phát triển và tổ chức. Những chức năng này cùng nhau góp phần vào vị trí độc đáo của Agent S trong không gian tiền điện tử, khi nó tự động hóa các nhiệm vụ phức tạp, nhiều bước với sự can thiệp tối thiểu của con người. Khi dự án phát triển, các ứng dụng tiềm năng của nó trong Web3 có thể định nghĩa lại cách mà các tương tác kỹ thuật số diễn ra. Thời Gian Phát Triển của Agent S Sự phát triển và các cột mốc của Agent S có thể được tóm tắt trong một dòng thời gian nêu bật các sự kiện quan trọng của nó: 27 tháng 9, 2024: Khái niệm về Agent S được ra mắt trong một bài nghiên cứu toàn diện mang tên “Một Khung Tác Nhân Mở Sử Dụng Máy Tính Như Một Con Người,” trình bày nền tảng cho dự án. 10 tháng 10, 2024: Bài nghiên cứu được công bố công khai trên arXiv, cung cấp một cái nhìn sâu sắc về khung và đánh giá hiệu suất của nó dựa trên tiêu chuẩn OSWorld. 12 tháng 10, 2024: Một video trình bày được phát hành, cung cấp cái nhìn trực quan về khả năng và tính năng của Agent S, thu hút thêm sự quan tâm từ người dùng và nhà đầu tư tiềm năng. Những dấu mốc trong dòng thời gian không chỉ minh họa sự tiến bộ của Agent S mà còn chỉ ra cam kết của nó đối với sự minh bạch và sự tham gia của cộng đồng. Những Điểm Chính Về Agent S Khi khung Agent S tiếp tục phát triển, một số thuộc tính chính nổi bật, nhấn mạnh tính đổi mới và tiềm năng của nó: Khung Đổi Mới: Được thiết kế để cung cấp cách sử dụng máy tính trực quan giống như tương tác của con người, Agent S mang đến một cách tiếp cận mới cho việc tự động hóa nhiệm vụ. Tương Tác Tự Động: Khả năng tương tác tự động với máy tính thông qua GUI đánh dấu một bước tiến tới các giải pháp tính toán thông minh và hiệu quả hơn. Tự Động Hóa Nhiệm Vụ Phức Tạp: Với phương pháp mạnh mẽ của nó, nó có thể tự động hóa các nhiệm vụ phức tạp, nhiều bước, làm cho các quy trình nhanh hơn và ít sai sót hơn. Cải Tiến Liên Tục: Các cơ chế học tập cho phép Agent S cải thiện từ các trải nghiệm trước đó, liên tục nâng cao hiệu suất và hiệu quả của nó. Tính Linh Hoạt: Khả năng thích ứng của nó trên các môi trường hoạt động khác nhau như OSWorld và WindowsAgentArena đảm bảo rằng nó có thể phục vụ một loạt các ứng dụng rộng rãi. Khi Agent S định vị mình trong bối cảnh Web3 và tiền điện tử, tiềm năng của nó để nâng cao khả năng tương tác và tự động hóa quy trình đánh dấu một bước tiến quan trọng trong công nghệ AI. Thông qua khung đổi mới của mình, Agent S minh họa cho tương lai của các tương tác kỹ thuật số, hứa hẹn một trải nghiệm liền mạch và hiệu quả hơn cho người dùng trên nhiều ngành công nghiệp khác nhau. Kết luận Agent S đại diện cho một bước nhảy vọt táo bạo trong sự kết hợp giữa AI và Web3, với khả năng định nghĩa lại cách chúng ta tương tác với công nghệ. Mặc dù vẫn còn ở giai đoạn đầu, những khả năng cho ứng dụng của nó là rộng lớn và hấp dẫn. Thông qua khung toàn diện của mình giải quyết các thách thức quan trọng, Agent S nhằm đưa các tương tác tự động lên hàng đầu trong trải nghiệm kỹ thuật số. Khi chúng ta tiến sâu hơn vào các lĩnh vực tiền điện tử và phi tập trung, các dự án như Agent S chắc chắn sẽ đóng một vai trò quan trọng trong việc định hình tương lai của công nghệ và sự hợp tác giữa con người với máy tính.

Tổng lượt xem 769Xuất bản vào 2025.01.14Cập nhật vào 2025.01.14

AGENT S là gì

Làm thế nào để Mua S

Chào mừng bạn đến với HTX.com! Chúng tôi đã làm cho mua Sonic (S) trở nên đơn giản và thuận tiện. Làm theo hướng dẫn từng bước của chúng tôi để bắt đầu hành trình tiền kỹ thuật số của bạn.Bước 1: Tạo Tài khoản HTX của BạnSử dụng email hoặc số điện thoại của bạn để đăng ký tài khoản miễn phí trên HTX. Trải nghiệm hành trình đăng ký không rắc rối và mở khóa tất cả tính năng. Nhận Tài khoản của tôiBước 2: Truy cập Mua Crypto và Chọn Phương thức Thanh toán của BạnThẻ Tín dụng/Ghi nợ: Sử dụng Visa hoặc Mastercard của bạn để mua Sonic (S) ngay lập tức.Số dư: Sử dụng tiền từ số dư tài khoản HTX của bạn để giao dịch liền mạch.Bên thứ ba: Chúng tôi đã thêm những phương thức thanh toán phổ biến như Google Pay và Apple Pay để nâng cao sự tiện lợi.P2P: Giao dịch trực tiếp với người dùng khác trên HTX.Thị trường mua bán phi tập trung (OTC): Chúng tôi cung cấp những dịch vụ được thiết kế riêng và tỷ giá hối đoái cạnh tranh cho nhà giao dịch.Bước 3: Lưu trữ Sonic (S) của BạnSau khi mua Sonic (S), lưu trữ trong tài khoản HTX của bạn. Ngoài ra, bạn có thể gửi đi nơi khác qua chuyển khoản blockchain hoặc sử dụng để giao dịch những tiền kỹ thuật số khác.Bước 4: Giao dịch Sonic (S)Giao dịch Sonic (S) dễ dàng trên thị trường giao ngay của HTX. Chỉ cần truy cập vào tài khoản của bạn, chọn cặp giao dịch, thực hiện giao dịch và theo dõi trong thời gian thực. Chúng tôi cung cấp trải nghiệm thân thiện với người dùng cho cả người mới bắt đầu và người giao dịch dày dạn kinh nghiệm.

Tổng lượt xem 1.4kXuất bản vào 2025.01.15Cập nhật vào 2025.03.21

Làm thế nào để Mua S

Thảo luận

Chào mừng đến với Cộng đồng HTX. Tại đây, bạn có thể được thông báo về những phát triển nền tảng mới nhất và có quyền truy cập vào thông tin chuyên sâu về thị trường. Ý kiến ​​của người dùng về giá của S (S) được trình bày dưới đây.

活动图片