Y-Combinator CEO的AI使用指南:未来属于会搭建复利型系统的人

marsbit發佈於 2026-05-11更新於 2026-05-11

文章摘要

本文核心观点:未来竞争力属于能围绕个人知识和工作流,搭建具备“复利”效应的AI系统的人,而非仅仅会使用AI工具的人。 Y Combinator CEO Garry Tan分享了他的实践:他不再将AI视为聊天工具,而是将其构建成个人的“操作系统”和“第二大脑”。这套系统能持续积累并结构化其所有的会议、阅读、人脉和信息,使其相互关联,形成可不断迭代和增强的知识网络。 关键实践包括: 1. **书籍镜像**:AI能深度消化书籍内容,并将其核心观点与他的个人经历、职业背景具体关联,生成专属的读书笔记。 2. **技能化**:将重复性工作流抽象为可复用的“技能”,并通过“元技能”不断创造和优化新技能,实现能力积累。 3. **知识库系统**:他维护着一个约10万页的结构化“大脑”,涵盖人物、公司、会议、阅读等所有信息,并能主动为会议等场景提供深度背景准备。 4. **架构理念**:采用“厚技能、厚数据、薄框架”的架构。模型(引擎)可替换,真正的价值在于沉淀个人数据的知识库和封装个人工作模式的技能库。 Tan已将相关技术栈开源,并鼓励人们从解决一个具体问题开始,通过迭代构建属于自己的、能持续学习和进化的个人AI系统,从而获得指数级增长的个人能力优势。

编者按:当多数人还在把 AI 当作一个更聪明的聊天窗口时,Y Combinator 现任 CEO Garry Tan 已经在尝试把它改造成一套个人操作系统。

AI 时代个人生产力的底层结构正在发生变化:模型只是引擎,真正产生复利的,是围绕个人知识、工作流、上下文和判断力搭建起来的一整套系统。

在这套系统里,每一次会议、每一本书、每一封邮件、每一个人脉关系,都不再是孤立信息,而会被持续写入一个结构化的「第二大脑」;每一个重复出现的任务,也不再依赖临时 prompt,而会被抽象成可复用的 skill,并在后续工作中不断迭代。换句话说,AI 不只是帮人完成任务,而是在帮助个人把自己的工作方式产品化、系统化、基础设施化。

更值得关注的是,作者提出了一种与中心化 AI 工具不同的个人路径:未来的竞争力,可能不只属于会使用 AI 的人,而属于那些能围绕自己真实生活和工作,训练出一套复利型 AI 系统的人。聊天机器人给出答案,搜索引擎提供信息,而真正的个人 AI 系统,则会记住你的背景、理解你的语境、继承你的判断,并在每一次使用中变得更强。

这也是本文最有启发性的地方:AI 的价值,不在于一次性生成了什么,而在于它能否成为一个持续积累、持续连接、持续改进的神经系统。对于个人而言,这或许才是「AI 原生工作方式」的真正起点。

以下为原文:

人们总问我,为什么我会把晚上都花在写代码上,一直写到凌晨 2 点。我有一份工作,而且是一份很重的工作——我是 Y Combinator 的 CEO。我们每年帮助成千上万的创业者去实现他们的梦想:创办真正有收入、真正高速增长的初创公司。

过去 5 个月里,AI 让我重新变回了一个 builder。去年年底,工具已经好到足以让我重新开始动手构建。不是玩具项目,而是真正能够复利增长的系统。我想用具体例子告诉你,当你不再把个人 AI 当作一个聊天窗口,而是把它当作一个操作系统时,它到底会是什么样子。我把这些东西开源出来,并写成这样的文章,是因为我希望你也能和我一起提速。

这是一个系列的一部分:《Fat Skills, Fat Code, Thin Harness》介绍了核心架构;《Resolvers》讲的是智能的路由表;《The LOC Controversy》讨论的是每个技术人如何把自己放大 100 倍到 1000 倍;《Naked models are stupider》提出,模型只是引擎,不是整辆车;而《skillify manifesto》则解释了为什么 LangChain 融资 1.6 亿美元,却给了你一套深蹲架和哑铃,却没有训练计划,而这篇文章则给了你真正需要的那份训练计划。

那本「反过来读懂我」的书

上个月,我在读 Pema Chödrön 的《When Things Fall Apart》。这本书一共 162 页、22 章,讲的是佛教如何看待痛苦、无根感和放下。一个朋友在我经历一段艰难时期时向我推荐了它。

我让我的 AI 做了一次「书籍镜像」(book mirror)。

具体来说,这意味着:系统提取了这本书全部 22 章的内容,然后针对每一章运行一个子 agent,同时完成两件事:总结作者的思想,并把每一个观点映射到我的真实生活中。

不是那种泛泛而谈的「这对领导者也适用」的空话,而是非常具体的映射。它知道我的家庭背景:移民父母,父亲来自香港和新加坡,母亲来自缅甸。它知道我的职业语境:我在管理 YC,构建开源工具,指导成千上万名创始人。它知道我最近在读什么、凌晨 2 点在想什么、我和治疗师正在处理哪些问题。

最终输出是一篇 3 万字的「脑页」(brain page)。每一章都被呈现为两栏:一栏是 Pema 在说什么,另一栏是这些内容如何映射到我正在真实经历的事情上。讲「无根感」的那一章,连接到了我前一周和某位创始人的一次具体谈话;讲「恐惧」的那一章,映射到了我的治疗师曾指出过的一些行为模式;讲「放下」的那一章,则引用了我某个深夜写下的内容——关于我今年找到的那种创作自由。

整个过程大约花了 40 分钟。一个时薪 300 美元的治疗师,即便读完这本书并把它应用到我的人生中,也不可能在 40 个小时内做到这一点。因为他们并没有完整加载并可交叉引用我的职业语境、阅读历史、会议笔记和创始人关系网络。

到目前为止,我已经用这种方式处理了 20 多本书:《Amplified》(Dion Lim)、《罗素自传》、《Designing Your Life》、《天才儿童的悲剧》、《有限与无限的游戏》、《海的礼物》(Lindbergh)、《悉达多》(黑塞)、《荒原狼》(黑塞)、《The Art of Doing Science and Engineering》(Hamming)、《The Dream Machine》、《The Book on the Taboo Against Knowing Who You Are》(Alan Watts)、《What Do You Care What Other People Think?》(Feynman)、《When Things Fall Apart》(Pema Chödrön)、《A Brief History of Everything》(Ken Wilber),等等。

每一本书都会让这个「大脑」变得更丰富。第二次镜像知道第一次的内容,第二十次镜像则知道前十九次的全部内容。

Book-Mirror 是如何通过迭代变得更好的

我第一次做 book mirror 时,效果非常糟糕。

第一个版本里,有三处关于我家庭的事实错误。它说我父母离婚了,但事实并非如此;还说我在香港长大,但我其实出生在加拿大。这些都是基础错误,如果我把结果分享出去,很可能会破坏信任。

所以我加入了一个强制性的事实核查步骤。现在,每一次 mirror 在交付之前,都会针对大脑中已知事实进行跨模态评估。Opus 4.7 1M 会抓精确性错误;GPT-5.5 会发现缺失的上下文;DeepSeek V4-Pro 则会判断某些内容是不是读起来太泛泛而谈。

后来,我又把它升级为基于 GBrain 工具调用的深度检索。最初的版本擅长综合,但在具体性上很弱。第三版开始进行逐节的大脑搜索。右栏中的每一条内容,都会引用真实存在的 brain page。

当书里谈到如何处理艰难对话时,它不会只是总结一些通用原则。它会调出我和那些正在与联合创始人经历艰难对话的创始人的真实会议笔记;或者是我某个星期四和弟弟 James 一起闲聊时冒出的一个想法;又或者是我 19 岁时和大学室友的一段即时通讯聊天记录。那种感觉非常离奇。

这就是「技能化」(skillification,用 GBrain 里的 /skillify)在实践中的含义。我把第一次手动尝试提炼成一个可重复的模式,写成一个经过测试的 skill 文件,里面包含触发条件和边界情况。此后,每一次修复都会在所有未来的 book mirror 中继续复利。

能够创造技能的技能

真正递归的地方来了,我认为这也是其中最大的洞见。

支撑我日常生活的系统,并不是以一个庞大单体的形式出现的。它是由一个个技能组装起来的。而这些技能本身,又是由另一个技能创造出来的。

Skillify 是一个「元技能」——一个用来创造新技能的技能。每当我遇到一个未来会反复执行的工作流时,我就会说:「把这个技能化。」然后它会回看刚才发生了什么,提取出其中可重复的模式,写成一个经过测试的 skill 文件,包含触发条件和边界情况,并把它注册到 resolver 里。

前面提到的 book-mirror 流水线,就是从我第一次手动完成这个流程之后被技能化出来的。meeting-prep 工作流也是如此:当我意识到自己每次通话前都在做相同步骤时,就把它技能化了。

技能可以组合。Book-mirror 会调用 brain-ops 做存储,调用 enrich 补充上下文,调用 cross-modal-eval 做质量评估,调用 pdf-generation 输出结果。每个技能只专注于一件事,但它们可以串联起来,形成复杂的工作流。

当我改进其中一个技能时,所有使用这个技能的工作流都会自动变得更好。不再有那种「我忘了在 prompt 里提到这个边界情况」的问题。技能会记住。

那场自己完成准备工作的会议

Demis Hassabis 来 YC 做了一场炉边谈话。Sebastian Mallaby 关于他的传记刚刚出版。

我让系统帮我做准备。

不到两分钟,它就拉取出了:Demis 的完整 brain page——这页内容已经从文章、播客转录稿和我自己的笔记中持续积累了几个月;他公开表达过的关于 AGI 时间线的看法,比如「50% 靠规模扩展,50% 靠创新」,以及他认为 AGI 还需要 5 到 10 年;Mallaby 传记中的重点内容;他明确提到过的研究优先级,包括持续学习、世界模型和长期记忆;他和我公开谈过的 AI 观点之间的交叉引用;三个用于在谈话中展示这个「大脑」多跳推理能力的演示脚本;以及一组基于我们世界观重叠和分歧之处设计的对话切入点。

这不只是一次更好的 Google 搜索。它是一种基于上下文的准备:系统不仅使用了我长期积累的关于 Demis 的信息,也结合了我自己的立场,以及这场对话的战略目标。

它准备的不只是事实,而是角度。

一个 10 万页的大脑是什么样子

我维护着一个结构化知识库,大约有 10 万页。

我遇到的每个人,都会有一个页面,里面包括时间线、状态栏——也就是当前真实情况、尚未结束的线索,以及一个评分。每一场会议都会有转录稿、结构化摘要,以及一个我称为「实体传播」(entity propagation)的流程:每次会议结束后,系统都会遍历会议中提到的每个人和每家公司,并用这次讨论的内容更新他们对应的 brain page。

我读过的每一本书,都会得到一份逐章 book mirror。我接触过的每篇文章、每期播客、每个视频,都会被摄入、打标签,并建立交叉引用。

这个 schema 很简单。每个页面都有三部分:最上方是「编译后的真相」——也就是当前最好的理解;下方是只追加不修改的时间线,按时间顺序记录事件;旁边则是原始数据 sidecar,用来存放来源材料。

你可以把它想象成一个个人版维基百科。每个页面都由一个 AI 持续更新,而这个 AI 参加了会议、读了邮件、看了演讲,也消化了 PDF。

这里有一个例子,可以说明这种系统是如何复利的。

我在 office hours 见了一位创始人。系统会创建或更新他的个人页面、公司页面,交叉引用会议笔记,检查我之前是否见过他——如果见过,就浮现出上次我们谈了什么;它会检查他的申请资料,拉取最新指标,并识别我的投资组合公司或联系人中,是否有人能帮到他正在处理的问题。

等我下一次走进和他的会议时,系统已经准备好了一整套上下文包。

这就是「文件柜」和「神经系统」之间的区别。文件柜只是储存东西;神经系统会把它们连接起来,标记发生了什么变化,并在当下浮现出最相关的信息。

架构

它的工作方式是这样的。我认为,这是构建个人 AI 的正确路径,所以我把整套东西都开源了,你也可以自己搭建。

Harness 很薄。OpenClaw 是运行时。它接收我的消息,判断适用哪个技能,然后进行分发。只有几千行路由逻辑。它并不了解书、会议或创始人,它只是负责路由。

Skills 很厚。现在已经有 100 多个技能,每个都是一个自包含的 markdown 文件,里面为某个具体任务写了详细说明。前面你已经看到了 book-mirror 和 meeting-prep。下面是 GBrain 里自带的另外几个技能:

meeting-ingestion:每次会议结束后,它会拉取转录稿,生成结构化摘要,然后遍历会议中提到的每个人和每家公司,用讨论内容更新他们的 brain page。会议页面本身不是最终产品,真正的价值在于把这些信息传播回每个人和每家公司页面。

enrich:给它一个人的名字。它会从五个不同来源拉取信息,将所有内容合并成一个 brain page,包括职业轨迹、联系方式、会议历史和关系上下文。每一个判断都有来源引用。

media-ingest:处理视频、音频、PDF、截图和 GitHub repo。它会转录内容、提取实体,并把材料归档到正确的大脑位置。我经常用它处理 YouTube 视频、播客和语音备忘录。

perplexity-research:这是带有大脑增强能力的网络研究。它通过 Perplexity 搜索网页,但在综合之前,会先检查大脑里已经知道什么,从而告诉你哪些信息是真正新的,哪些是你已经捕捉过的。

我还为自己的工作构建了几十个技能,之后大概率也会开源:email-triage、investor-update-ingest——它可以识别我邮箱里的投资组合更新,并把指标提取到公司页面里;calendar-check——用于检测日程冲突和不可能完成的出行安排;还有一整套我用于公共事务工作的新闻研究栈。

每个技能都编码了一种运营知识,而这些知识如果交给一位新人类助理,可能需要几个月才能学会。有人问我如何「提示」我的 AI。答案是:我不提示。技能本身就是 prompt。

数据很厚。大脑 repo 里有 10 万页结构化知识。我接触过的每个人、每家公司、每场会议、每本书、每篇文章、每个想法,都被连接起来,可搜索,并且每天都在增长。

代码也很厚。为它供料的代码也很重要:转录、OCR、社交媒体归档、日历同步、API 集成的脚本。但复利价值真正沉淀的地方,是数据。

我每天运行 100 多个 cron 任务,检查所有我关注的东西:社交媒体、Slack、邮件,以及其他任何我会留意的信息。我的 OpenClaw/Hermes Agents 也会替我看这些东西。

模型是可以替换的。为了精确性,我用 Opus 4.7 1M;为了召回和穷尽式提取,我用 GPT-5.5;为了创意工作和第三视角,我用 DeepSeek V4-Pro;为了速度,我用 Groq 加 Llama。由技能决定哪个任务调用哪个模型。Harness 并不在乎。

当有人问「哪个 AI 模型最好」时,答案是:你问错问题了。模型只是引擎,除此之外的所有部分,才是整辆车。

凌晨 2 点的 builder,以及一个不断复利的系统

人们问我关于生产力的问题。但我并不是这样思考的。

我思考的是复利。

我参加的每一场会议,都会为这个大脑增加内容。我读的每一本书,都会为下一本书丰富上下文。我构建的每一个技能,都会让下一个工作流更快。我更新的每一个人物页面,都会让下一次会议准备更锋利。

今天这个系统,已经是两个月前的 10 倍。再过两个月,它又会再变成现在的 10 倍。

当我凌晨 2 点还在写代码时——而且我确实经常如此,因为 AI 让我重新找回了构建的快乐——我不只是在写软件。我是在给一个每小时都会变得更好的系统增加能力。

100 个 cronjob 全天候运行。会议摄入自动执行。邮件分诊每 10 分钟跑一次。知识图谱会从每一次对话中自我丰富。系统会处理每天的转录稿,并实时提取那些我没注意到的模式。

这不是一个写作工具,不是搜索引擎,也不是聊天机器人。

这是一个真正可运行的第二大脑。它不是隐喻,而是一个正在运行的系统:10 万页内容、100 多个技能、15 个 cron job,以及过去一年中我参与过的每一段职业关系、每一场会议、每一本书和每一个想法所积累的上下文。

我把整套技术栈都开源了。GStack 是一个编码技能框架,已经有 8.7 万多个 star,我就是用它构建了这个系统。当 agent 需要写代码时,我仍然会把它作为 OpenClaw/Hermes Agent 里的一个技能来使用。里面还有一个很棒的可编程浏览器,既支持有头模式,也支持无头模式。

GBrain 是知识基础设施。OpenClaw 和 Hermes Agent 是 harness,你可以二选一,但我通常两个都会用。数据 repo 也都在 GitHub 上。

核心判断很简单:未来属于那些能构建复利型 AI 系统的个体,而不是那些只会使用企业拥有的中心化 AI 工具的个体。

这两者之间的差别,就像写日记和拥有一个神经系统之间的差别。

如何开始

如果你也想构建这样一套系统:

先选一个 harness。可以用 OpenClaw、Hermes Agent,也可以基于 Pi 从零搭一个。关键是保持轻量。Harness 只是路由器。你可以把它部署在家里闲置的电脑上,用 Tailscale 访问;也可以放到 Render 或 Railway 这样的云服务上。

然后用 GBrain 建一个「大脑」。我最初受到 Karpathy 的 LLM Wiki 启发,在 OpenClaw 里实现了它,后来又把它扩展成了 GBrain。它是我测试过的最好的检索系统:在 LongMemEval 上达到 97.6% 的召回率,在检索环节不调用 LLM 的情况下超过了 MemPalace。它自带 39 个可安装技能,包括本文中提到的所有内容。只需要一条命令就能安装。你会得到一个 git repo,里面每个人、每场会议、每篇文章、每个想法都会有自己的页面。

接着,去做一件真正有意思的事。不要一开始就规划你的技能架构。先去完成一个具体任务:写一份报告,研究一个人,下载一个赛季的 NBA 比分并为你的体育投注建立预测模型,分析你的投资组合,或者做任何你真正关心的事情。用你的 agent 去做,持续迭代,直到结果足够好,然后运行 Skillify——也就是前面提到的那个元技能——把其中的模式提取成一个可复用技能。再运行 check_resolvable,确认这个新技能已经接入 resolver。这个循环会把一次性的工作,变成可以持续复利的基础设施。

继续使用它,并认真查看输出。这个技能一开始一定会很普通。这正是重点。使用它,阅读它生成的内容,当你发现哪里不对时,就运行 cross-modal eval:把输出交给多个模型,让它们根据你关心的维度相互打分。这就是我当初发现 book-mirror 事实错误的方法。修复被写进了技能里,从那以后,每一次 mirror 都变得更干净了。

六个月后,你会拥有一个任何聊天机器人都无法复制的东西。因为真正的价值不在模型本身,而在于你教会了这个系统理解你的具体生活、工作和判断方式。

我用这套系统做出来的第一个东西非常糟糕。到第一百个时,它已经是一个我敢托付日历、收件箱、会议准备和阅读清单的系统。系统在学习,我也在学习。复利曲线是真实存在的。

厚技能,厚代码,薄 harness。LLM 本身只是一台引擎。你完全可以造出自己的车。

我在这里描述的一切——所有技能、book mirror 流水线、cross-modal eval 框架、skillify 循环、resolver 架构,以及 30 多个可安装的 skillpack——都已经开源,并免费放在 GitHub 上。

去构建吧。

相關問答

QGarry Tan提出的“个人AI操作系统”与普通的AI聊天工具有什么本质区别?

AGarry Tan提出的个人AI操作系统与普通AI聊天工具的本质区别在于,它不是一个孤立提供答案的工具,而是一套围绕个人知识、工作流和判断力搭建的、具有复利效应的系统。普通工具是一次性的问答,而操作系统会将每次互动(如会议、阅读、邮件)持续写入一个结构化的“第二大脑”,将重复任务抽象为可复用、可迭代的“技能”。其核心在于系统能记住用户的背景、理解语境、继承判断力,并在此过程中不断自我增强,将个人工作方式产品化和基础设施化。

Q文章中提到的“技能化”具体指的是什么?请举例说明。

A“技能化”指的是将一次性的、手动完成的工作流程,抽象、提炼并编码成一个可重复调用的、自包含的“技能”的过程。例如,Garry第一次手动完成了书籍镜像(book mirror)流程后,通过“skillify”这个元技能,将该流程的模式、触发条件和边界情况提取出来,写成一个经过测试的skill文件。之后,每当需要为其他书籍做镜像时,系统就会自动调用这个已注册的技能,无需重新设计和编写提示。另一个例子是会议准备(meeting-prep)工作流,同样被技能化后,可以自动为未来的会议做准备。

QGarry Tan的“10万页大脑”知识库是如何构建和维护的?它有什么特点?

AGarry Tan的“10万页大脑”是一个结构化的个人知识库,其构建和维护方式如下:1. **自动摄入**:通过cron任务和技能(如meeting-ingestion, media-ingest)自动摄入会议转录稿、书籍、文章、播客、邮件等所有信息。2. **结构化存储**:为每个实体(人、公司、会议、书)创建页面,页面包含“编译后的真相”(当前最佳理解)、只追加的时间线以及原始数据来源。3. **实体传播**:每次会议或互动后,系统会遍历提到的每个人和公司,用新内容更新其对应页面,实现知识的交叉连接和动态更新。其核心特点是:它不是被动的“文件柜”,而是主动的“神经系统”,能够连接信息、标记变化,并在需要时浮现最相关的上下文,从而实现知识的持续复利增长。

QGarry Tan认为构建个人AI系统的正确技术架构是什么?(请概括其核心组件和思想)

AGarry Tan认为正确的技术架构核心是“厚技能,厚数据,薄束缚,可替换模型”,具体组件和思想如下:1. **薄束缚**:核心运行时(如OpenClaw)非常轻量,只负责接收消息和路由到相应技能,本身不包含业务逻辑。2. **厚技能**:系统由上百个独立的、自包含的Markdown技能文件组成,每个技能专注一个具体任务(如book-mirror, meeting-prep),技能本身就是经过编码和测试的“提示”。3. **厚数据**:价值沉淀在持续增长和连接的结构化知识库(“大脑”)中,而非代码本身。4. **可替换模型**:根据任务需求(精确性、创意、速度)灵活调用不同的AI模型(如Opus, GPT, DeepSeek),模型仅是“引擎”。这种架构思想强调将复利价值沉淀在个人数据和可复用技能中,而非依赖某个特定模型。

Q对于想要开始构建个人AI系统的普通人,Garry Tan给出了哪些具体的第一步建议?

AGarry Tan给出的具体第一步建议包括:1. **选择一个轻量的束缚**:如OpenClaw或Hermes Agent,并将其部署。2. **用GBrain建立一个“大脑”**:快速创建一个结构化的知识库基础。3. **从一件具体、有意思的任务开始**:不要先规划宏大架构,而是直接让AI助手帮你完成一个真实任务,如研究一个人、写份报告或分析数据。4. **迭代并“技能化”**:不断优化任务完成过程,当结果满意后,使用“Skillify”元技能将工作模式提取成一个可复用的技能。5. **认真检查输出并使用跨模态评估**:通过让不同模型相互评估输出,发现并修复错误,并将改进固化到技能中。核心思想是通过实践和迭代,将一次性的工作转化为可持续复利的基础设施。

你可能也喜歡

Zcash上涨1500%,其最大支持者解释原因

据Zcash主要支持者乔希·斯威哈特分析,ZEC价格约1500%的飙升并非偶然,而是2023至2024年间在治理、产品、叙事和组织结构上进行多年重置的成果。 他指出,三年前ZEC价格约30美元,仅不到11%的供应量被屏蔽(shielded),且社区陷于治理争议。如今ZEC价格约600美元,约31%的供应量被屏蔽,用户控制的屏蔽钱包持有价值超30亿美元,且屏蔽交易占比在三月中旬达到86.5%。 **治理重置成为核心**:2024年,Electric Coin Co.宣布不再接受直接资助,打破了原有核心机构长期获得固定区块奖励的格局。网络升级6取消了直接资助,将8%奖励导向社区赠款,12%放入协议控制的锁箱,供ZEC持有者追溯奖励为生态创造价值的贡献者。同时,商标协议的终止消除了ECC和Zcash基金会对协议的潜在否决权,使治理更加去中心化。 **产品重心回归用户与屏蔽使用**:ECC于2024年1月将重点转向用户增长。默认屏蔽的钱包Zodl(原Zashi)于2024年3月推出,带动屏蔽供应量从约11%升至2025年底的约30%。钱包自10月起处理了超6亿美元的ZEC互换,反映了真实用户对隐私和自托管的选择。 **叙事从“隐私币”转向“不可阻挡的私人货币”**:这一新定位使Zcash更易被机构理解,吸引了如Robinhood上线、Multicoin披露持仓、Grayscale提交ETF申请及Foundry推出矿池等进展。 **组织重组与融资**:2026年1月,ECC团队脱离后成立了Zcash开放开发实验室(ZODL),并获得了Paradigm、a16z crypto等机构2500万美元融资,旨在以初创公司的速度和资本推动大规模消费者产品开发。 近期重点包括提升用户体验、可扩展性(目标将区块时间从75秒降至25秒)及后量子安全准备。斯威哈特总结,Zcash将变得更快、更易用、功能更丰富、可扩展性更强并具备后量子安全性。 截至发稿时,ZEC交易价格为570.36美元。

bitcoinist25 分鐘前

Zcash上涨1500%,其最大支持者解释原因

bitcoinist25 分鐘前

比特币已实现市值回升至正值区域,市场重获力量

比特币价格在周日小幅反弹后重回8万美元关键点位上方,多个指标开始重新显现强势。其中,比特币已实现市值(Realized Cap)随着市场状况缓慢改善,近期已转为看涨信号。 比特币重新燃起的看涨势头正逐渐体现在多个关键链上指标中,反映出市场动态的转变。比特币已实现市值目前显示出强势,随着市场情绪改善,已回升至正值区域。该指标通过计算已实现利润与已实现亏损的差值得出,反映了比特币市场创造或摧毁的价值。 CryptoQuant平台分析师Darkfost指出,该指标目前正显示复苏信号,这意味着资金正流入比特币。截至周日,比特币已实现市值已转正,增长率约为+0.25%。虽然增幅尚不显著,但这是在今年2月经历超过-2.6%的急剧下跌之后发生的。Darkfost认为,当前阶段代表了资产从“弱手”向“强手”的转移。 与此同时,另一个关键指标比特币净已实现利润/亏损也已转为正值。这一变化表明,以盈利状态转移的代币数量超过了以亏损状态转移的数量,显示出市场信心和投资者情绪正在稳步改善。链上分析账户On-Chain Mind指出,该指标是五个多月以来首次转正。 总体而言,这些链上指标的改善标志着市场正在经历一个修复过程,投资者情绪好转,资金开始回流。然而,这并不等同于直接进入牛市,趋势能否持续仍有待观察。

bitcoinist4 小時前

比特币已实现市值回升至正值区域,市场重获力量

bitcoinist4 小時前

BTC市场脉搏:第20周

比特币在过去一周从77,000美元高位震荡上行至82,000美元低位,买盘持续吸纳回调,尽管价格在局部高点附近动能有所减弱。现货CVD(累计成交量Delta)大幅上升,反映了强烈的看涨情绪和对价格上涨的高度信心。同时,现货交易量增加,表明近期的价格走势得到了更强投资者参与的推动。然而,价格动能的放缓指向更均衡的买卖压力,暗示市场可能进入一个稳定阶段。 期货市场方面,风险偏好同样上升。期货未平仓合约增加,表明投机活动加剧和风险承担意愿增强;永续合约CVD飙升,显示持续的看涨动能。但多头资金费率下降,意味着空头兴趣抬头,看涨情绪可能正在减弱。 期权市场对下行保护的需求下降,未平仓合约上升,表明市场预期转向中性偏多。然而,波动率利差大幅扩大,显示期权定价蕴含的风险显著高于已实现波动,反映出参与者中存在较高的不确定性。 链上活动显著增强,每日活跃地址、实体调整后的转账量和总手续费收入均有所上升,指向用户参与度提高和网络活动增加。与此同时,流动性状况持续稳定,短期投机资本的减少降低了即时卖压,而已实现市值变化则显示适度的净资本流入。 盈利能力指标也有所改善,市场从未实现亏损重回盈利状态。然而,处于盈利状态的供应百分比仍低于通常与大规模获利了结相关的水平,表明市场乐观情绪依然克制而非狂热。 总结来说,比特币的市场结构继续改善,得到更强的链上活动、更健康的盈利能力和更稳定的持有者仓位的支持。虽然看涨基调正在形成,但较温和的资本流入和谨慎的市场情绪表明,市场对风险偏好的变化依然敏感。

insights.glassnode7 小時前

BTC市场脉搏:第20周

insights.glassnode7 小時前

交易

現貨
合約

熱門文章

什麼是 $S$

理解 SPERO:全面概述 SPERO 簡介 隨著創新領域的不斷演變,web3 技術和加密貨幣項目的出現在塑造數字未來中扮演著關鍵角色。在這個動態領域中,SPERO(標記為 SPERO,$$s$)是一個引起關注的項目。本文旨在收集並呈現有關 SPERO 的詳細信息,以幫助愛好者和投資者理解其基礎、目標和在 web3 和加密領域內的創新。 SPERO,$$s$ 是什麼? SPERO,$$s$ 是加密空間中的一個獨特項目,旨在利用去中心化和區塊鏈技術的原則,創建一個促進參與、實用性和金融包容性的生態系統。該項目旨在以新的方式促進點對點互動,為用戶提供創新的金融解決方案和服務。 SPERO,$$s$ 的核心目標是通過提供增強用戶體驗的工具和平台來賦能個人。這包括使交易方式更加靈活、促進社區驅動的倡議,以及通過去中心化應用程序(dApps)創造金融機會的途徑。SPERO,$$s$ 的基本願景圍繞包容性展開,旨在彌合傳統金融中的差距,同時利用區塊鏈技術的優勢。 誰是 SPERO,$$s$ 的創建者? SPERO,$$s$ 的創建者身份仍然有些模糊,因為公開可用的資源對其創始人提供的詳細背景信息有限。這種缺乏透明度可能源於該項目對去中心化的承諾——這是一種許多 web3 項目所共享的精神,優先考慮集體貢獻而非個人認可。 通過將討論重心放在社區及其共同目標上,SPERO,$$s$ 體現了賦能的本質,而不特別突出某些個體。因此,理解 SPERO 的精神和使命比識別單一創建者更為重要。 誰是 SPERO,$$s$ 的投資者? SPERO,$$s$ 得到了來自風險投資家到天使投資者的多樣化投資者的支持,他們致力於促進加密領域的創新。這些投資者的關注點通常與 SPERO 的使命一致——優先考慮那些承諾社會技術進步、金融包容性和去中心化治理的項目。 這些投資者通常對不僅提供創新產品,還對區塊鏈社區及其生態系統做出積極貢獻的項目感興趣。這些投資者的支持強化了 SPERO,$$s$ 作為快速發展的加密項目領域中的一個重要競爭者。 SPERO,$$s$ 如何運作? SPERO,$$s$ 採用多面向的框架,使其與傳統的加密貨幣項目區別開來。以下是一些突顯其獨特性和創新的關鍵特徵: 去中心化治理:SPERO,$$s$ 整合了去中心化治理模型,賦予用戶積極參與決策過程的權力,關於項目的未來。這種方法促進了社區成員之間的擁有感和責任感。 代幣實用性:SPERO,$$s$ 使用其自己的加密貨幣代幣,旨在在生態系統內部提供多種功能。這些代幣使交易、獎勵和平台上提供的服務得以促進,增強了整體參與度和實用性。 分層架構:SPERO,$$s$ 的技術架構支持模塊化和可擴展性,允許在項目發展過程中無縫整合額外的功能和應用。這種適應性對於在不斷變化的加密環境中保持相關性至關重要。 社區參與:該項目強調社區驅動的倡議,採用激勵合作和反饋的機制。通過培養強大的社區,SPERO,$$s$ 能夠更好地滿足用戶需求並適應市場趨勢。 專注於包容性:通過提供低交易費用和用戶友好的界面,SPERO,$$s$ 旨在吸引多樣化的用戶群體,包括那些以前可能未曾參與加密領域的個體。這種對包容性的承諾與其通過可及性賦能的總體使命相一致。 SPERO,$$s$ 的時間線 理解一個項目的歷史提供了對其發展軌跡和里程碑的關鍵見解。以下是建議的時間線,映射 SPERO,$$s$ 演變中的重要事件: 概念化和構思階段:形成 SPERO,$$s$ 基礎的初步想法被提出,與區塊鏈行業內的去中心化和社區聚焦原則密切相關。 項目白皮書的發布:在概念階段之後,發布了一份全面的白皮書,詳細說明了 SPERO,$$s$ 的願景、目標和技術基礎設施,以吸引社區的興趣和反饋。 社區建設和早期參與:積極進行外展工作,建立早期採用者和潛在投資者的社區,促進圍繞項目目標的討論並獲得支持。 代幣生成事件:SPERO,$$s$ 進行了一次代幣生成事件(TGE),向早期支持者分發其原生代幣,並在生態系統內建立初步流動性。 首次 dApp 上線:與 SPERO,$$s$ 相關的第一個去中心化應用程序(dApp)上線,允許用戶參與平台的核心功能。 持續發展和夥伴關係:對項目產品的持續更新和增強,包括與區塊鏈領域其他參與者的戰略夥伴關係,使 SPERO,$$s$ 成為加密市場中一個具有競爭力和不斷演變的參與者。 結論 SPERO,$$s$ 是 web3 和加密貨幣潛力的見證,能夠徹底改變金融系統並賦能個人。憑藉對去中心化治理、社區參與和創新設計功能的承諾,它為更具包容性的金融環境鋪平了道路。 與任何在快速發展的加密領域中的投資一樣,潛在的投資者和用戶都被鼓勵進行徹底研究,並對 SPERO,$$s$ 的持續發展進行深思熟慮的參與。該項目展示了加密行業的創新精神,邀請人們進一步探索其無數可能性。儘管 SPERO,$$s$ 的旅程仍在展開,但其基礎原則確實可能影響我們在互聯網數字生態系統中如何與技術、金融和彼此互動的未來。

85 人學過發佈於 2024.12.17更新於 2024.12.17

什麼是 $S$

什麼是 AGENT S

Agent S:Web3中自主互動的未來 介紹 在不斷演變的Web3和加密貨幣領域,創新不斷重新定義個人如何與數字平台互動。Agent S是一個開創性的項目,承諾通過其開放的代理框架徹底改變人機互動。Agent S旨在簡化複雜任務,為人工智能(AI)提供變革性的應用,鋪平自主互動的道路。本詳細探索將深入研究該項目的複雜性、其獨特特徵以及對加密貨幣領域的影響。 什麼是Agent S? Agent S是一個突破性的開放代理框架,專門設計用來解決計算機任務自動化中的三個基本挑戰: 獲取特定領域知識:該框架智能地從各種外部知識來源和內部經驗中學習。這種雙重方法使其能夠建立豐富的特定領域知識庫,提升其在任務執行中的表現。 長期任務規劃:Agent S採用經驗增強的分層規劃,這是一種戰略方法,可以有效地分解和執行複雜任務。此特徵顯著提升了其高效和有效地管理多個子任務的能力。 處理動態、不均勻的界面:該項目引入了代理-計算機界面(ACI),這是一種創新的解決方案,增強了代理和用戶之間的互動。利用多模態大型語言模型(MLLMs),Agent S能夠無縫導航和操作各種圖形用戶界面。 通過這些開創性特徵,Agent S提供了一個強大的框架,解決了自動化人機互動中涉及的複雜性,為AI及其他領域的無數應用奠定了基礎。 誰是Agent S的創建者? 儘管Agent S的概念根本上是創新的,但有關其創建者的具體信息仍然難以捉摸。創建者目前尚不清楚,這突顯了該項目的初期階段或戰略選擇將創始成員保密。無論是否匿名,重點仍然在於框架的能力和潛力。 誰是Agent S的投資者? 由於Agent S在加密生態系統中相對較新,關於其投資者和財務支持者的詳細信息並未明確記錄。缺乏對支持該項目的投資基礎或組織的公開見解,引發了對其資金結構和發展路線圖的質疑。了解其支持背景對於評估該項目的可持續性和潛在市場影響至關重要。 Agent S如何運作? Agent S的核心是尖端技術,使其能夠在多種環境中有效運作。其運營模型圍繞幾個關鍵特徵構建: 類人計算機互動:該框架提供先進的AI規劃,力求使與計算機的互動更加直觀。通過模仿人類在任務執行中的行為,承諾提升用戶體驗。 敘事記憶:用於利用高級經驗,Agent S利用敘事記憶來跟蹤任務歷史,從而增強其決策過程。 情節記憶:此特徵為用戶提供逐步指導,使框架能夠在任務展開時提供上下文支持。 支持OpenACI:Agent S能夠在本地運行,使用戶能夠控制其互動和工作流程,與Web3的去中心化理念相一致。 與外部API的輕鬆集成:其多功能性和與各種AI平台的兼容性確保了Agent S能夠無縫融入現有技術生態系統,成為開發者和組織的理想選擇。 這些功能共同促成了Agent S在加密領域的獨特地位,因為它以最小的人類干預自動化複雜的多步任務。隨著項目的發展,其在Web3中的潛在應用可能重新定義數字互動的展開方式。 Agent S的時間線 Agent S的發展和里程碑可以用一個時間線來概括,突顯其重要事件: 2024年9月27日:Agent S的概念在一篇名為《一個像人類一樣使用計算機的開放代理框架》的綜合研究論文中推出,展示了該項目的基礎工作。 2024年10月10日:該研究論文在arXiv上公開,提供了對框架及其基於OSWorld基準的性能評估的深入探索。 2024年10月12日:發布了一個視頻演示,提供了對Agent S能力和特徵的視覺洞察,進一步吸引潛在用戶和投資者。 這些時間線上的標記不僅展示了Agent S的進展,還表明了其對透明度和社區參與的承諾。 有關Agent S的要點 隨著Agent S框架的持續演變,幾個關鍵特徵脫穎而出,強調其創新性和潛力: 創新框架:旨在提供類似人類互動的直觀計算機使用,Agent S為任務自動化帶來了新穎的方法。 自主互動:通過GUI自主與計算機互動的能力標誌著向更智能和高效的計算解決方案邁進了一步。 複雜任務自動化:憑藉其強大的方法論,能夠自動化複雜的多步任務,使過程更快且更少出錯。 持續改進:學習機制使Agent S能夠從過去的經驗中改進,不斷提升其性能和效率。 多功能性:其在OSWorld和WindowsAgentArena等不同操作環境中的適應性確保了它能夠服務於廣泛的應用。 隨著Agent S在Web3和加密領域中的定位,其增強互動能力和自動化過程的潛力標誌著AI技術的一次重大進步。通過其創新框架,Agent S展現了數字互動的未來,為各行各業的用戶承諾提供更無縫和高效的體驗。 結論 Agent S代表了AI與Web3結合的一次大膽飛躍,具有重新定義我們與技術互動方式的能力。儘管仍處於早期階段,但其應用的可能性廣泛且引人入勝。通過其全面的框架解決關鍵挑戰,Agent S旨在將自主互動帶到數字體驗的最前沿。隨著我們深入加密貨幣和去中心化的領域,像Agent S這樣的項目無疑將在塑造技術和人機協作的未來中發揮關鍵作用。

733 人學過發佈於 2025.01.14更新於 2025.01.14

什麼是 AGENT S

如何購買S

歡迎來到HTX.com!在這裡,購買Sonic (S)變得簡單而便捷。跟隨我們的逐步指南,放心開始您的加密貨幣之旅。第一步:創建您的HTX帳戶使用您的 Email、手機號碼在HTX註冊一個免費帳戶。體驗無憂的註冊過程並解鎖所有平台功能。立即註冊第二步:前往買幣頁面,選擇您的支付方式信用卡/金融卡購買:使用您的Visa或Mastercard即時購買Sonic (S)。餘額購買:使用您HTX帳戶餘額中的資金進行無縫交易。第三方購買:探索諸如Google Pay或Apple Pay等流行支付方式以增加便利性。C2C購買:在HTX平台上直接與其他用戶交易。HTX 場外交易 (OTC) 購買:為大量交易者提供個性化服務和競爭性匯率。第三步:存儲您的Sonic (S)購買Sonic (S)後,將其存儲在您的HTX帳戶中。您也可以透過區塊鏈轉帳將其發送到其他地址或者用於交易其他加密貨幣。第四步:交易Sonic (S)在HTX的現貨市場輕鬆交易Sonic (S)。前往您的帳戶,選擇交易對,執行交易,並即時監控。HTX為初學者和經驗豐富的交易者提供了友好的用戶體驗。

1.5k 人學過發佈於 2025.01.15更新於 2025.03.21

如何購買S

相關討論

歡迎來到 HTX 社群。在這裡,您可以了解最新的平台發展動態並獲得專業的市場意見。 以下是用戶對 S (S)幣價的意見。

活动图片