GitHub Copilot 改收费,揭开了 AI 行业最大的谎言

marsbitXuất bản vào 2026-04-29Cập nhật gần nhất vào 2026-04-29

作者:Ed Zitron

编译:深潮 TechFlow

深潮导读:微软终于撑不住了,GitHub Copilot 从月费制改为按 token 计费。这不是产品升级,而是整个 AI 行业补贴骗局的集体破产——OpenAI、Anthropic 们用月费掩盖真实成本,让用户每花 1 美元就烧掉 8-13 美元的算力,训练出一代根本不可能持续的使用习惯。当价格回归现实,你会发现那些"革命性"的 AI 工具,可能只是昂贵的玩具。

我刚写了一篇关于 OpenAI 如何干掉 Oracle 的文章,今天这篇用了其中一些材料。这是我写过最好的文章之一,我非常自豪。

订阅付费版既超值,也让我能每周写出这些大型、深度研究的免费文章。

昨天早上,GitHub Copilot 用户得到了我一周前报道过的消息确认——所有 GitHub Copilot 计划将在 2026 年 6 月 1 日改为按使用量计费。

微软不再给用户一定数量的"请求次数",而是根据用户实际使用的模型成本收费,微软称这是"......朝着可持续、可靠的 Copilot 业务和所有用户体验迈出的重要一步。"用户现在能用多少,取决于他们订阅费能买多少 token(比如每月 19 美元的计划能用 19 美元的 token)。

翻译:我们不能继续补贴 GitHub Copilot 用户了,否则 Amy Hood(微软 CFO)会开始用棒球棒打人。

这份公告本身就是个有趣的预览,展示了这些价格变动会如何被包装:

Copilot 已经不是一年前的产品了。它已经从编辑器内的助手进化为一个能运行长时间、多步骤编码会话的智能体平台,使用最新模型,在整个代码库中迭代。智能体使用正在成为默认模式,这带来了显著更高的计算和推理需求。现在,一个快速的聊天问题和一个数小时的自主编码会话,用户付的钱可能是一样的。GitHub 一直在吸收这种使用背后不断攀升的推理成本,但目前基于请求次数的高级模式已经不可持续了。按使用量计费解决了这个问题。它更好地将定价与实际使用对齐,帮助我们维持长期服务可靠性,并减少限制重度用户的需要。

你看,不是微软在补贴近两百万人的算力,而是 AI 变得如此强大、复杂,基本上成了一个不同的产品!

虽然 Copilot 可能"不是一年前的产品了",但底层经济错配几乎没变:微软三年来一直允许用户每月烧掉超过订阅费的 token。根据《华尔街日报》2023 年 10 月的报道:

个人用户每月支付 10 美元使用这个 AI 助手。根据一位知情人士透露的数据,今年前几个月,该公司平均每个用户每月亏损超过 20 美元,有些用户每月让公司花掉 80 美元。

自然,GitHub Copilot 用户现在造反了,说产品"死了"、"彻底毁了"。

我两年前在《次贷 AI 危机》中就预言过这一天:

那一天终于到了,因为你用的每一个 AI 服务都在补贴算力,每一个服务都因此亏钱:

当你为 AI 创业公司的服务付费时——当然包括 OpenAI 和 Anthropic——你支付的是月费,比如 Anthropic 的 Claude 每月 20、100 或 200 美元,Perplexity 每月 20 或 200 美元,或者 OpenAI 每月 8、20 或 200 美元的订阅。在一些企业场景中,你会得到某些工作单位的"额度",比如 Lovable 在每月 25 美元的订阅中给用户"100 个月度额度",以及 25 美元的云托管(到 2026 年第一季度末),额度可以跨月滚存。当你使用这些服务时,相关公司要么按每百万 token 的费率向 AI 实验室付费,要么(对于 Anthropic 和 OpenAI)向云服务商支付租用 GPU 运行模型的费用。一个 token 基本上是 3/4 个单词。作为用户,你感受不到 token 消耗,只是输入和输出的过程。AI 实验室用"tokens"、"消息"或带百分比计的 5 小时速率限制来掩盖服务成本,你作为用户,并不真正知道这一切要花多少钱。在后端,AI 创业公司在疯狂烧钱,直到最近 Anthropic 还允许你每花 1 美元订阅费就烧掉高达 8 美元的算力。OpenAI 也允许你这样做,虽然很难衡量具体多少。

AI 创业公司和云服务巨头以为,他们能用补贴、亏损的产品吸引足够多的人,让用户上瘾到当企业提价时也拒绝更换。我想他们还以为,token 成本会随时间下降,但实际发生的是——虽然一些模型的价格可能降了,但更新的"推理"模型烧掉更多 token,这意味着推理成本不知怎么随时间变得更高了。

两个假设都错了,因为月订阅模式对任何连接大语言模型的服务来说都说不通。

生成式 AI 的核心经济模式已经崩溃

这样想吧。当 Uber(不,这和 Uber 完全不一样)开始提高打车价格时,底层经济逻辑没变,呈现给乘客和司机的也没变——用户为一次行程付费,司机因一次行程收费。司机仍然要付油费、车险、当地政府可能要求的许可证,以及车辆可能产生的融资成本,这些成本不由 Uber 补贴。Uber 的巨额亏损来自补贴、无休止的营销费用,以及注定失败的无人驾驶汽车等研发努力。

生成式 AI 订阅和 Uber 完全不同

为了说明 AI 定价错配的规模,我要请你想象一个 Uber 有着非常不同商业模式的平行历史。

生成式 AI 订阅就像如果 Uber 每月收 20 美元让你打 100 次 100 英里以内的车,汽油 150 美元一加仑,而且 Uber 付油费,因为有人坚持认为石油总有一天会便宜到不值得计量。

Uber 最终会决定开始收取用户月费来获得打车资格,然后按用户消耗的汽油收费。突然间用户从每月 20 美元打 100 次车,变成支付 20 美元获得打车资格加上 10 英里行程 26 美元的油费。用户自然会有点不爽。

虽然这听起来有点夸张,但实际上是生成式 AI 行业正在发生的事情的相当准确的隐喻,尤其是在 GitHub Copilot。

GitHub Copilot 之前的定价允许每月 300 次高级请求,以及使用 GPT-5 mini 等模型的"无限聊天请求"。每个请求(引用微软的话)是"......你要求 Copilot 为你做某事的任何交互",在基于请求的系统后期,更昂贵的模型会占用更多请求,比如 Claude Opus 4.6 占用三次高级请求。当你用完高级请求时,Copilot 会让你在本月剩余时间里随意使用那些更便宜的模型。

情况也并非一直如此。直到 2025 年 5 月,微软还给用户无限使用模型,即便如此用户也对产品有任何限制感到愤怒。

微软——像每家 AI 公司一样——通过销售不可持续的服务欺骗了客户,因为销售基于月订阅的 LLM 驱动服务从来、从来都说不通。

如果你想知道基于 token 计费的服务可能要花多少钱,GitHub Copilot 子版块的一位用户发现,过去一次高级请求的 token 消耗大约是 11 美元,因为一次"请求"涉及在上下文窗口中使用 60,000 个 token、几个工具,以及一堆内部"轮次"(模型在做的事情)来产生输出。

还有容易产生幻觉的大语言模型的底层不可靠性。虽然一次高级请求陷入死循环并吐出半残代码可能令人沮丧,但当你自己付费时,同样的故障就没那么容易原谅了。

用户也被训练成以一种完全不同于基于 token 计费的方式使用产品,我想很多人甚至都没真正意识到他们烧了多少"tokens",或者某项特定任务需要多少,这会根据你使用的模型而变化。

这和 Uber 完全不同,任何告诉你相反的人都是在试图为恶劣行为辩护。Uber 可能提高了价格,但它不必戏剧性地改变平台的底层经济逻辑,用户也不必完全改变他们使用产品的方式,因为 Uber 突然开始按每加仑收费。

月度 AI 订阅都是 AI 补贴骗局的一部分,是刻意将生成式 AI 与其实际成本分离的企图

从来没有——也永远不会有——一种经济上可行的方式来提供由 LLM 驱动的服务,除非按每个用户实际的 token 消耗收费,而在欺骗这些用户的过程中,这些公司创造了具有虚幻好处和可疑投资回报的产品。

这多年来一直显而易见。

从经济学角度看,月订阅只有在成本相对静态时才合理。健身房可以销售会员资格,因为大致知道设备磨损多少、课程运营成本、以及电、员工和水在特定时期内可能花多少钱。

Google Workspace 的客户——至少在 AI 之前——的成本是访问或存储文档的费用,以及 Google Docs 和其他服务的持续成本。数字存储成本相对较低(而且与 LLM 不同,Google Workspace 对计算需求不高),意味着一个特别重度的 Google Drive 用户不会侵蚀他们月订阅的利润。

然而这些服务故意隐藏 token 数量或某项特定活动花了多少钱,这意味着用户并不真正知道速率限制意味着什么,这意味着速率限制的每次突然变化都让客户拼命想弄清楚他们能用服务做多少实际工作。

这是一种虐待性、操纵性和欺骗性的经商方式,它存在的唯一目的是让 Anthropic、OpenAI 和其他 AI 公司能够扩大用户基础,因为大多数 AI 用户完全通过能够每花 1 美元订阅费就烧掉 8 到 13.5 美元的 token 这个视角来感知其真实或想象的好处。

这种故意的欺骗行为只有一个目标:确保大多数人永远不会接触到生成式 AI 的真实成本。当《大西洋月刊》写一篇关于 Claude Code 是 Anthropic 的"ChatGPT 时刻"的激情檄文时,它基于的是每月 20 美元的订阅,而不是 Anthropic 提供它所花费的底层 token 消耗,这反过来让作者原谅模型可能犯的"小错误",或者当它"在更复杂的编程任务上卡住"时。

如果作者为她实际的 token 消耗付费,而且每次卡住都导致 15 美元的 token 费用,我不认为她会如此原谅这些故障。

但这都是骗局的一部分。

非常、非常重要的是,主流媒体中写 AI 的人实际上不理解这些服务要花多少钱,而且任何关于 ChatGPT 或 Claude Code 等服务的主流文章都是由几乎不知道每项单独任务可能让用户花多少钱的人写的。

记住:生成式 AI 服务大多是实验性产品,功能不像任何其他现代软件或硬件。人们不能就这样走到 ChatGPT 或 Claude 面前开始要求它工作。

我是说,你可以,但如果你提示不对、不理解它如何工作、或者在你喂给它的东西里犯错,或者如果它就是搞错了,它会吐出你不喜欢的东西,这反过来意味着你需要再次提示它。LLM 本质上是不可预测的。

你无法保证 LLM 会执行某个特定动作,或者它会呈现给你一个基于现实的结果。你无法确定某项特定任务——即使是你过去用 LLM 做过很多次的——可能要花多少钱,你也无法确定模型何时可能发疯删掉什么东西,或者干脆不做某事却声称它做了。

如果用户被迫支付实际费率,我想很多人会立刻放弃产品,因为如果你瞎折腾探索 LLM 能做什么,很容易就烧掉 5 美元的 token。

旁注:事实上,你可以在从未得到你想要的结果的情况下烧掉大量钱,因为 LLM 根本不是真正的人工智能!没有任何真正理解其局限性的人可以轻易烧掉 30、50 甚至 100 美元,试图说服 LLM 做它坚称自己能做的事。有个术语形容这个。谄媚。LLM 通常被设计为肯定用户,即使他们在说危险的疯话,这可以延伸到说"你想要这个技术上或经济上完全不可行的大事?"当然可以!这就是为什么行业如此努力地掩盖这些成本——这就是他妈的敲竹杠!

我认为大多数 AI 订阅转向基于 token 的计费是不可避免的,尤其是 Anthropic 和 OpenAI 现在都已经对企业客户这样做了。

普通公司能负担得起转向基于 Token 计费吗?Anthropic 估计用户每天在 Claude Code 上花 13-30 美元(每年 7000 多美元),大型组织每年花费数十万或数百万美元

正如我上周讨论的,Uber 的 CTO 在一个会议上说它在几个月内就花完了 2026 年的整个 AI 预算,高盛建议一些公司在 AI token 上花费高达员工薪酬的 10%,有可能在未来几个季度增加到 100%。

这是训练每一个 AI 用户尽可能多地使用这些服务同时掩盖其真实成本的直接结果。每一家要求每一个员工"尽可能多地使用 AI"的大公司都是在基本上忽略或完全脱离其实际 token 消耗的情况下这样做的,而随着公司被迫支付实际成本,我不确定你如何能在经济上证明对这项技术的任何投资是合理的。

当然,你会说工程师"更快地交付代码"之类的废话,我懂。但到底快了多少?你因此赚了或省了多少钱?如果你把 10%的人力成本花在 AI token 上,这笔额外开支有没有从其他地方补回来?我不确定有。我不确定任何在 token 上投入巨资的企业看到了投资回报,这也是为什么每项关于 AI 投资回报率的研究都找不到多少存在证据。

大多数情况下,你读到的那些对生成式 AI 各种可能性津津乐道的人,都是在不用承担真实成本的情况下体验它的。每个在 Twitter 上没完没了写他们整个工程团队疯狂使用 Claude Code 的疯子,用的都是每人每月 125 美元的 Teams 订阅,使用限制和 Anthropic 面向消费者的 100 美元月费订阅差不多。每个在 LinkedIn 上坚称自己用某个 Perplexity 产品"几分钟完成数小时工作"的怪物,最多也就是每月花 200 美元买 Perplexity 的 Max 订阅。

实际上,那个 10 人、每月 1250 美元的 Teams 订阅,很可能每月要烧掉 5000 到 10000 美元的 API 调用费用,甚至更多。Anthropic 增长主管 Amol Avasare 上周说,他们的 Max 订阅是为重度聊天使用设计的,而不是人们用 Claude Code 和 Cowork 做的那些事,并明确表示 Anthropic 现在在考虑"不同的选项来继续提供优质体验",换句话说就是"我们会在某个时候调整价格"。

我不确定人们是否意识到这些 token 有多贵,特别是涉及大型代码库并频繁调用编码和基础设施工具的编程项目。一个每月花 200 美元的人能负担得起 350、400 或 500 美元吗?他们能承受某个月花费超过这个数字吗?如果预算超支了怎么办?或者他们真的负担不起完成工作所需的费用怎么办?

给你一个更实际的例子,直到 4 月初,Anthropic 自己的 Claude Code 开发者文档(存档)还写着"[使用 Claude Code 的用户]平均成本是每个开发者每天 6 美元,90%的用户每日成本保持在 12 美元以下。"截至本周,文档现在这样写:

Claude Code 按 API token 消费收费。订阅计划定价(Pro、Max、Team、Enterprise)请见 claude.com/pricing。每个开发者的成本因模型选择、代码库大小和使用模式(如运行多个实例或自动化)而差异很大。在企业部署中,平均成本约为每个开发者每个活跃日 13 美元,每月 150-250 美元,90%用户的成本保持在每个活跃日 30 美元以下。要估算你团队的开支,从小型试点组开始,使用下面的跟踪工具建立基准,然后再推广。

如果我们假设一个月平均有 21 个工作日,Claude Code 用户的平均成本约为每月 273 美元,或每年 3276 美元。按每个工作日 30 美元算,就是每月 630 美元,或每年 7560 美元。

这些数字惊人,更惊人的是,如果你使用 Anthropic 任何较新的模型,你不可能只花每天 30 美元。Claude Opus 4.7 的费用是每百万输入 token 5 美元,每百万输出 token 25 美元。一百万 token 约等于 5 万行代码,假设你使用所谓的最先进模型,你肯定至少会跑完一百万 token,如果你不太清楚该用哪个模型做特定任务,这个数字会急剧上升。

让我们再玩玩这个 30 美元的数字。

对于 10 人开发团队,一年就是 75600 美元,而且我们只算工作日。

如果你有三个月提高到平均每个工作日 50 美元,就涨到 88200 美元

如果你加一个月超过 100 美元,一年就要花 102900 美元。

如果你每天花 300 美元,10 个人一年就要花 756000 美元。

虽然这在资金充足的创业公司或 Meta 这样的香蕉共和国的备用金思维里可能可行,但任何真正在意成本的企业都很难证明在一项"提高生产力"的服务上额外花费五位数或六位数是合理的,而这种提高似乎没人能衡量。

现在,我认为大多数公司分为三类:

Spotify 或 Uber 这样大型组织里的企业部署,有痴迷 AI 的 CEO,允许预算不受控制。我也会说资金充足的大型创业公司也是这种情况。

我也会说资金充足的大型创业公司也是这种情况。

使用补贴的"Teams"订阅的小型创业公司。

付月费访问 Claude 或其他 AI 订阅的个人用户。

大型组织仍然可以说他们在为软件工程师烧掉数百万美元的 AI token,理由是"最优秀的工程师"不写任何代码这一可疑好处。

只需要一次糟糕的财报电话会议就能改变这种叙事。在某个时刻,投资者——即使是那些一直在吹大 AI 泡沫的脑残蠢货——也会开始质疑不断攀升的研发成本(AI token 消耗通常隐藏在这里),当公司的收入增长跟不上时。这很可能导致更多裁员来控制成本,就像 Meta 那样,然后在有人问"这些东西真的帮我们更快更好地完成工作了吗?"时最终收缩。

我还认为,在六个月内,那些在 AI token 上烧掉 10%或更多人力成本的创业公司,很难说服投资者这样做是必要的。

一旦所有人都切换到基于 token 的计费,我不确定我们还会看到那么多关于生成式 AI 的炒作。

AI 数据中心和算力的经济学不合理

人们谈论 AI 数据中心的方式完全脱离现实,我认为人们没有意识到整个时代变得多么荒谬。

AI 数据中心建设成本高、运营成本高,实际收入却很少

根据 TD Cowen 的 Jerome Darling,关键 IT(GPU 和相关硬件)成本约为 3000 万美元,每兆瓦数据中心容量成本 1400 万美元。数据中心似乎需要一到三年不等的时间,这还是假设有电力供应的情况下。

到 2028 年底据称要建成的 114GW 数据中心中,只有 15.2GW 在以任何方式、形态或形式施工。而"施工中"可能只意味着"地上有个坑"。它不意味着——也不应该意味着——该设施将提供的容量会很快可用。

让我们从简单开始:每当你想到"100MW",就想"44 亿美元",其中很大一部分用于 NVIDIA GPU。

因此,每个 AI 数据中心一开始就亏损数百万美元,即使采用六年折旧计划,也要多年才能还清......而且随着 NVIDIA 的年度升级周期,一旦你完成第一个客户合同,那些 GPU 不太可能赚那么多钱。

还不清楚 AI 算力的客户群是否存在于 OpenAI 和 Anthropic 之外,这两家的需求占在建 AI 数据中心的 50%,如果他们中任何一家没钱付款,就会造成巨大的系统性弱点。

无论如何,也不清楚这些数据中心收取什么样的持续费率。虽然现货价格可能在每小时 4.50 美元左右/B200 GPU,但长期合同价格通常低得多,一位创始人(据 The Information)说他们为一年期承诺支付约每 GPU 每小时 3.70 美元。

需要明确的是,我们必须区分现货成本——在别人服务器上随机启动 GPU 的成本——和合约算力,后者占数据中心资本支出的大部分。大多数数据中心建设时打算有一两个大客户,这意味着这些客户可能谈判到更便宜的混合费率。

因此,许多数据中心的收费远低于每小时 3.70 美元,因为他们按每兆瓦(或千瓦)价格计费。

这就是经济学开始崩溃的地方。

100MW 数据中心的崩溃经济学——每小时 2.55 美元,100%入驻率下毛利率 16%,因债务而无利可图

这是 100 兆瓦数据中心的起始成本。一个 100MW 的数据中心可能只有 85MW 的实际可计费容量,根据与熟悉超大规模计费的消息源讨论,他们预计每兆瓦收入约 1250 万美元,或年收入约 10.63 亿美元。

现在,我应该明确,你知道的大多数数据中心公司实际上并不建造它们,而是把这项工作留给 Applied Digital 这样的公司,它们也被称为"托管合作伙伴"。例如,CoreWeave 向 Applied Digital 支付托管费用以使用其北达科他州的数据中心。CoreWeave 负责数据中心内的所有 GPU 和其他技术。

为了解释经济不匹配,我将使用一个理论示例,一个租给理论 AI 算力公司的数据中心。

该数据中心的 GPU 很可能是 NVIDIA 的 Blackwell 芯片。更有可能的是,该数据中心使用 8 个 B200 GPU 的 pod,零售价约 45 万美元一个,或每个 GPU 56250 美元。基于 85MW 的关键 IT 负载,每兆瓦的全部资本支出约为 36.78,或总 IT 资本支出约 31.26 亿美元,或约 26.7 亿美元的 GPU。

假设这个数据中心在北达科他州 Ellendale,这意味着工业电价约为每千瓦时 6.31 美分,每年电费约 5540 万美元。根据与消息源的讨论,我估计维护、人员、电源更换等持续成本约占收入的 12%,或每年约 1.28 亿美元,使我们达到 1.834 亿美元的成本。

等等,抱歉。你还得根据关键 IT 支付托管费,根据 Brightlio,该费用通常约为每千瓦每月 180-200 美元,取决于部署的规模和位置,虽然我读到过低至 130 美元,这是我采用的数字,或每年约 1.33 亿美元。这使我们达到 3.164 亿美元。

嗯,这仍然少于 10.6 亿美元,所以我们还好,对吧?

错!你有 31.26 亿美元的 IT 设备要折旧,六年折旧下来每年约 5.21 亿美元。那就是每年 8.374 亿美元,给你留下约 1.686 亿美元的年利润,或约 16.7%的毛利率......

......如果你一直保持 100%的入驻率!你看,数据中心可能需要一两个月来安装这些 GPU 并让客户入驻,在此期间你的收入为零,损失却大得多,因为你一直在支付托管、电力和运营成本,尽管费率低得多(我为 10%的电力和 15%的托管/运营成本建模),这意味着你每天损失约 327 万美元。

为了这个例子,我们假设你需要额外一个月才能让这东西运行起来,这意味着你已经支付了约 1.02 亿美元,再也拿不回来了,使我们包括折旧在内的年度总成本达到 9.394 亿美元,或 6.6%的毛利率。

等等,该死,你没用债务买这些 GPU 吧?你用了?有多糟?哦天哪——你得到了一笔六年期的资产支持贷款,贷款价值比为 80%,意味着你以 6%的利率借了 28 亿美元。

你的银行出于永恒的慷慨,给了你一笔交易——12 个月的宽限期,你只付利息......约 1.68 亿美元,这使我们第一年的总成本(为公平起见不包括延迟的一个月)达到约 10.05 亿美元......收入 10.6 亿美元。

那是 5.19%的毛利率,而你甚至还没开始还本金。当那发生时,你每月要还 5410 万美元的贷款,接下来五年总计每年约 6.49 亿美元,约 14.8 亿美元,或约负 40%的毛利率。

我必须明确,这是如果你有 100%的利用率,而且租户每次都按时付款。

Stargate Abilene 是场灾难——每 GPU 每小时 2.94 美元,年收入 100 亿美元,进度落后数年,只有一个每年亏损数十亿美元的租户

让我们谈谈应该是数据中心历史上最具经济可行性的单一项目——一个由 Oracle 为世界上最大的 AI 公司建造的大型园区,Oracle 是一个拥有数十年历史的近超大规模企业,有向企业和政府销售昂贵数据库和业务管理软件的历史。

哈,我当然是在开玩笑,这地方就是个该死的噩梦。

Stargate Abilene,一个八栋建筑、1.2GW 的数据中心园区,约 824MW 的关键 IT,首次宣布于 2024 年 7 月。截至 2026 年 4 月 27 日,只有两栋建筑运营并产生收入,第三栋几乎没有任何 IT 设备。我估计 Stargate Abilene 的总成本约为 528 亿美元。

根据我自己的报道,Oracle 预计从 Stargate Abilene 获得约 100 亿美元的年收入,我估计从它为一个客户建造的 7.1GW 数据中心容量中获得约 750 亿美元的总收入:OpenAI。正如我还报道的,Oracle 在 2024 年估计 Abilene 每年至少要支付 21.4 亿美元的托管和电费,支付给土地开发商 Crusoe。

我还应该补充,看起来 Oracle 正在支付 Abilene 的所有建设成本。

根据我的计算和报道,我估计 Abilene 一旦全面运营,粗略毛利率约为 37.47%:

我必须明确,37.47%的毛利率可能太高了,因为我不知道 Oracle 真实的保险或人员成本的准确数字,只有基于本刊查看的文档的估计。我还应该明确,Oracle 正在把整个该死的未来押在像 Stargate Abilene 这样的项目上,预先产生数十亿美元的成本,这项业务即使 OpenAI 及时支付每一笔款项,也需要多年才能盈利。

遗憾的是,我无法确定 Abilene 有多少是靠债务支付的。我只知道 Oracle 在 2025 年 9 月通过发行不同规模的债券筹集了约 180 亿美元,期限从 7 年到 40 年不等,而且在最近一个季度的财报中出现了 247 亿美元的负现金流。

我确实知道的是,Oracle 与开发商 Crusoe 签订了一份为期 15 年的租约,而且 Oracle 的未来严重依赖 OpenAI 持续付款的能力,而这又取决于 Oracle 能否完成 Stargate Abilene 项目。

我还需要明确,每年 38.5 亿美元的利润只有在 OpenAI 按时付款、以最快速度入驻 Abilene 且一切按计划进行的情况下才可能实现。

如果 OpenAI 无法在未来 4 年内筹集 8520 亿美元的收入、融资和债务,Stargate 数据中心项目将拖垮 Oracle

遗憾的是,完全相反的情况发生了:

根据 DatacenterDynamics 的报道,首批 200MW 的电力本应在"2025 年"投入使用。随着时间推移,入驻本应在 2025 年上半年开始,"有潜力在 2025 年达到 1GW",在 2026 年中期完成全部 1.2GW 容量,在 2026 年中期通电,在 2026 年底前部署 64,000 个 GPU。截至 2025 年 9 月 30 日,"两栋建筑已上线"。截至 2025 年 12 月 12 日,Oracle 联席 CEO Clay Magouyurk 表示 Abilene"按计划推进","已交付超过 96,000 个 NVIDIA Grace Blackwell GB200",也就是两栋建筑的 GPU 数量。四个月后的 2026 年 4 月 22 日,Oracle 在推特上表示"......在 Abilene,200MW 已经投入运营,八栋建筑园区的交付仍按计划进行。"目前不清楚这是 200MW 的关键 IT 容量还是 Abilene 园区的总可用电力。无论如何,这只够支持两栋建筑,这意味着 Oracle 绝对不是"按计划推进"。

这是一个巨大的问题。OpenAI 只能为实际存在的算力付费,而只有 206MW 的关键 IT 容量真正产生收入,第三栋建筑至少还需要一个月(如果不是一个季度的话)才能投入使用。

然而,整个 Stargate 数据中心项目还有一个更大、更根本的问题——只有在 OpenAI 实现其荒谬的、卡通般的预测时,这一切才有意义。

正如我在周五讨论的:

我再重复一遍这些数字:正在建设的 7.1GW Stargate 数据中心完工后将产生约 750 亿美元的年收入,总成本超过 3400 亿美元。Oracle 的自由现金流为负 247 亿美元,其他业务线正在停滞,这使得其负利润到低利润的云业务成为唯一的增长引擎。为了真正能够支付其算力合同——包括与亚马逊、微软、CoreWeave、谷歌、Cerberas 以及 Oracle 的合同——OpenAI 必须在四年内筹集或赚取 8520 亿美元的收入和/或融资,这需要其业务每年增长超过 250%,到 2030 年底实际增长 10 倍,届时它必须找到一种方式实现现金流为正,这些数字才有意义。明确一点,OpenAI 的预测是在未来四年内赚取 6730 亿美元,并为此烧掉 2180 亿美元。这是一项极其无利可图的业务,即使它能盈利,也必须赚取比现在多得多的钱才能持续向 Oracle 付款。

我计算出 750 亿美元这个数字,是假设 Vera Rubin GPU 在剩余的 4.64GW 关键 IT 容量上每兆瓦算力获得约 1400 万美元(这个数字我已经与熟悉数据中心行业的消息源确认过),这是我预计构成剩余 Stargate 数据中心的容量。

OpenAI 的数字直接来自 The Information 报道的 OpenAI 预测烧钱率和收入的泄露信息,该公司预计到 2030 年底将产生 6730 亿美元的收入,并为此烧掉 8520 亿美元:

我必须明确,任何记者重复这些数字而不指出它们有多愚蠢的人都应该感到有点羞愧。根据我周五的付费内容:

换句话说,OpenAI 预测两年后的收入将超过台积电,三年后的年收入几乎与 Meta 相当,到 2030 年底的年收入将与微软相当(过去 12 个月约 3000 亿美元)。

如果 OpenAI 无法为这些算力付费,Oracle 就会倒闭,因为它仅为建设 Stargate 的数据中心就承担了约 1150 亿美元的债务,还需要另外 1500 亿美元来完成它们:

Oracle 是一家目前年收入约 640 亿美元的公司,上个季度的自由现金流为负 247 亿美元。它在 2025 年 9 月发行了 180 亿美元的债券,在 2026 年 2 月发行了 250 亿美元的债券,在 3 月的某个时候进行了 200 亿美元的市场配售,尽管被称为"已完成"数月,但似乎只是最近才完成了 380 亿美元的 Stargate 威斯康星州和 Shackelford 项目融资。我还将与 Stargate 密歇根州相关的 140 亿美元数据中心债务包括在内。无论如何,Oracle 资本不足以完成 Stargate Abilene。它至少还需要 1500 亿美元才能完成这项工作,这还是假设其他合作伙伴承担约 300 亿美元成本的情况下。老实说,可能还要更多。

我真的需要明确,Oracle 没有其他途径在没有 OpenAI 的情况下实现这笔收入,而且这些项目完全是使用数据中心本身的预计现金流来融资和支付的。

我甚至不是唯一担心这一点的人,OpenAI 的 Sarah Friar 在公司未能达到用户和收入目标后也表达了类似的担忧,据《华尔街日报》报道:

OpenAI 最近未能达到其新用户和收入目标,这些挫折让一些公司领导层担心它是否能够支持其在数据中心上的大规模支出。首席财务官 Sarah Friar 告诉其他公司领导层,她担心如果收入增长不够快,公司可能无法支付未来的计算合同,据知情人士透露。董事会成员最近几个月也更仔细地审查了公司的数据中心交易,并质疑首席执行官 Sam Altman 在业务放缓的情况下仍努力获取更多算力的做法,知情人士说。

如果这还不让你担心,或许这会:

她向高管和董事会成员强调了 OpenAI 需要改善其内部控制,警告公司尚未准备好满足上市公司所需的严格报告标准。一些知情人士说,Altman 倾向于更激进的 IPO 时间表。

这听起来确实像一家能够在十年末赚取 8520 亿美元的公司!

Anthropic 和 OpenAI 一样糟糕,承诺从谷歌和亚马逊获取多达 10GW(年收入超过 1000 亿美元)的算力

虽然我经常批评 OpenAI 的荒谬承诺,但 Anthropic 也不遑多让,承诺从谷歌和亚马逊各获取"多达"5GW 的容量,根据容量规模,我估计这笔交易包括约 1000 亿美元的实际算力承诺。

现在,我应该补充的是,谷歌和亚马逊比 Oracle 更精明、更不绝望,这意味着如果 Anthropic 最终资金耗尽,它们可以承受这一打击。交易中的"多达"部分给了它们一些 Oracle 根本没有的急需的回旋余地。

尽管如此,要真正履行其承诺,Anthropic 到 2030 年底每年必须同意在算力上花费 250 亿到 1000 亿美元。

Anthropic 的首席财务官在 3 月表示,该公司在整个存续期间创造了 50 亿美元的收入。

需要 1568 亿美元的 AI 年度算力收入来支持正在建设的 15.2GW AI 数据中心,需要 1.18 万亿美元来支持所有宣布的 114GW

围绕 Jensen Huang 声称定期出货的数千亿美元 GPU 的近乎色情的兴奋,掩盖了一个有问题的疑问:卖给谁,Jensen?

如果我们假设正在建设的 15.2GW 数据中心容量(预计 2028 年底前完工)的 PUE 约为 1.35,那么我们就有大约 11.2GW 的关键 IT 容量。按每兆瓦 1400 万美元计算,要使这些数据中心物有所值,大约需要 1568 亿美元的年度 GPU 租赁收入。

当你计算到 2028 年底理论上上线的 114GW 容量时,这个数字攀升至 1.18 万亿美元的年收入。

为了给你一些背景,CoreWeave——拥有 Meta、OpenAI、谷歌(为 OpenAI)、微软(为 OpenAI)、Anthropic 和 NVIDIA 作为客户的最大新云服务商——创造了约 51 亿美元的收入,并预计 2026 年将创造 120 亿到 130 亿美元。

究竟谁是所有这些算力的客户,当所有容量建成时,他们购买的可能性有多大?虽然许多不同的数据中心声称其存在的前几年有租户,但这些租户只能在数据中心完工后才开始付费,如果是 AI 初创公司,我认为合理的问题是:当它建成时,它们是否还存在。

记住:AI 算力的客户主要是试图将资本支出移出资产负债表的超大规模云服务商或无利可图的 AI 初创公司。Anthropic 和 OpenAI 都打算在未来几年烧掉数百亿美元,而且它们都没有盈利途径。

这意味着 AI 算力收入的很大一部分——如果不是大部分——依赖于持续的风险投资和债务流入,而这两者只有在投资者仍然相信生成式 AI 将是世界上最大、最巨大的事物时才可能实现。

这究竟如何运作?谁在为这些数据中心容量付费?这是为谁准备的?实际需求在哪里?

如果这种需求存在,客户他妈的怎么付款?

生成式 AI 无利可图且不可持续,而且只会越来越贵

尽管有多个故事说它们将在 2028 年或 2029 年实现盈利,但没有人能向我解释 OpenAI 或 Anthropic 实际上如何实现盈利,特别是考虑到它们的利润率都比预期更差,即使这些利润率剔除了数十亿美元的训练成本。

我他妈的提这个问题已经好几年了。每次我们得到关于 Anthropic 或 OpenAI 的新更新时,我们都会听说它们又比预期多损失了数十亿美元,利润率正在下降,成本正在飙升,尽管承诺会发生完全相反的情况,但一切都更贵了。

即使是 Cursor,一家曾短暂(在被马斯克的 SpaceX 伪收购之前)声称拥有正毛利率的公司,截至 1 月实际上有负 23%的毛利率,如果你包括非付费用户的成本,则为负 31%,如果你真的关心你的会计,你他妈的应该包括这些。神秘的是,报道声称 Cursor 的利润率"最近转为正数",但神奇地不知道有多少,或者这是如何发生的,或者除了一个可能帮助公司被出售的细节之外的任何其他细节。

我也不明白这些 AI 数据中心如何真正有意义,即使它们在前几年有客户付费。经济学是为完美而构建的,容错率为零。它们必须有一致的 100%利用率和入驻率,否则它们最终会烧掉数百万美元,并且无法削减由科技行业最昂贵错误造成的长达数年的折旧墙。

即使它们以某种方式成功,这些也是利润率平庸的可怜生意——最多 70%,假设持续付款、入驻和六年他妈的折旧才能真正实现收支平衡,考虑到年度升级周期使整个事情在你完成支付时几乎过时,这可能很困难。

而这还没有考虑到大多数客户都是无利可图、不可持续的初创公司。

我真的不知道这一切如何解决。

LLM 是一场骗局,客户被欺骗了

我意识到这似乎有点过分,但我真诚地相信,基于订阅的 AI 服务是一种相当于欺诈的欺骗行为,因为它们歪曲了核心单位经济学,从而歪曲了大型语言模型的可能性。通过以月费率向用户出售产品并基于其可用性创建习惯,Anthropic 和 OpenAI 等公司以这样的方式歪曲了它们的业务,以至于它们的大多数用户正在与产品互动,并基于在当前形式下不可持续且无法维护的产品构建工作流程。

我需要非常明确,Anthropic 提供的产品——由于最近的速率限制变化——与你到处读到的产品有很大不同(而且差得多)。Anthropic 有意识地故意营销一个它知道会在三个月内消失的产品。Dario Amodei 不在乎,只要媒体继续报道他今天编造的数十亿年化收入或他发布的任何旨在摧毁某家已经看到增长放缓的倒霉公共 SaaS 公司的新产品。

媒体成员,我怀着充分的尊重说这句话:Anthropic 正在虐待其客户,它这样做是因为它相信它可以逃脱惩罚。这家公司不尊重你,事实上对你持有相当程度的蔑视,这就是为什么它不费心快速修复其服务或以任何连贯的方式解释它们为什么损坏。

这就是为什么 Anthropic 他妈的谎称 Claude Mythos 太强大而无法发布(实际上是容量问题),而实际上它只是另一个他妈的大型语言模型空头支票——因为它认为你会购买它出售的任何东西,而且它已经准确地弄清楚了如何包装它,给你足够合理的"证据",快速浏览系统卡将让你和你的编辑相信你所说的任何内容。

他们也知道你会急于报道它,而不是等待看看实际专家怎么说。

AI 就是一场骗局,骗局的运作方式如下。AI 被以最快速度推到我们面前,以效率最低但最易接触的形式呈现,即便这种形式永远不可能产生任何可持续的商业模式。媒体被催促着立刻宣称"这就是未来",让所有人都认同这是当下的大事,尽可能多地使用它。更关键的是,以订阅制的形式让人们体验它,这样人们永远不会问提供服务的成本是多少。

叙事早已被打包好了。因为很少有讨论大语言模型的人真正了解其实际成本,他们很容易含糊地说"这就像 Uber 一样",因为那是一家亏了很多钱但没倒闭的公司。这样说比说"等等,你是说 OpenAI 今年将亏损 50 亿美元?"要容易得多。

这样想:作为记者、投资者、高管或普通的 LinkedIn 发言者,你可能零零散散读到过每百万输入 tokens 5 美元、每百万输出 tokens 25 美元的数字,但你从未真正体验过亏钱的速度,而这对真正理解这个产品至关重要。Anthropic 和 OpenAI 故意混淆了这种体验,创建了预计在 2026 年烧掉数百亿美元、到 2030 年烧掉数千亿美元的业务,这一切都因为大多数人基于订阅体验来评判生成式 AI。

大语言模型是赌场,你一直在用庄家的钱赌博,同时鼓励人们押注自己的钱,赌能否从特定模型中获得一单位的工作成果。

这是故意的。他们从不想让你思考成本,因为一旦你真正开始思考成本,整件事就显得有点疯狂。我真诚相信基于大语言模型的订阅服务将完全消失,至少在任何生成代码的产品规模上是这样。在此过程中,Amodei 和 Altman 将收尾他们的骗局,或者至少他们自己这么认为。

问题是这些人现在签了太多协议,无法全身而退。

OpenAI 的 CFO 现在已多次表示,她不认为 OpenAI 已为 IPO 做好准备,并对其增长和持续履约能力有重大担忧。重复之前的引述:

据知情人士透露,首席财务官 Sarah Friar 曾告诉其他公司领导层,她担心如果收入增长不够快,公司可能无法支付未来的计算合同费用。

这是一个闪烁的红色警报,在一个理性的市场中会让 Oracle 的股价陷入螺旋式下跌,因为 OpenAI 攀升至年收入超 2800 亿美元对 Oracle 不耗尽资金至关重要。在理性的媒体环境中,这会在每个群聊和 Slack 频道引发担忧浪潮,质疑 OpenAI 是否真能撑下去。

这是公司开始走向衰亡前发生的事。OpenAI 的增长恰恰在需要加速时放缓了。它需要在 2030 年前将当前业务规模扩大 10 倍才能履行义务。OpenAI 的 CFO——最清楚情况的人——正在说她担心如果收入不增长,OpenAI 连算力合同都付不起。这是一个巨大的、闪烁的警示灯!这不是演习!

但真正让我担心的是《华尔街日报》评论说,Friar 认为 OpenAI"尚未准备好满足上市公司所需的严格报告标准"。

这他妈是什么意思?抱歉?这家公司据称已融资 1220 亿美元,据称价值 8520 亿美元,预计到 2030 年底将烧掉 8520 亿美元。它的账目不清楚吗?OpenAI 无法满足什么"严格报告标准"?

如果不是因为这家公司去年占了所有风险投资资金的约 20%,而且我走到哪都得听 Altman、Brockman 和 OpenAI 其他人对普通人应该做什么的无休止空谈,同时他们优雅地发布垃圾软件、花别人的钱,我一般不会这么刨根问底。

鉴于 Anthropic 和 OpenAI 消耗的关注度,这两家公司作为产品和业务都应该完美无缺。但两者都通过不同程度的经济和效能欺骗来销售,混淆真相,好让他们的 CEO 能积累金钱、权力和关注。这是对优质软件和品味的侮辱——史上最昂贵、最不可靠的应用,它们的错误被原谅,平庸被庆祝,基础设施被誉为资本的惰性之神。

生成式 AI 是一种侮辱。它不可靠,经济账算不过来,产出无法证明其存在的正当性,而骗局的实施者是无聊、笨拙、贪婪的人,与社会和任何可能反对他们的人脱节。它需要窃取所有人的艺术,破坏环境,提高我们的电费,持续威胁经济毁灭,无休止地喧嚷"一切都因为 AI 变糟了",这一切只是为了推广只有愿意忽视基本财务或常识的人才能为其辩护的软件。

这一切都太昂贵,而且太他妈无聊了。它无聊得令人生厌。它让人主动感到烦躁。每个告诉你自己多么频繁使用 AI 的故事听起来都像是他们陷入了虐待关系和/或加入了邪教,回荡着微妙的绝望,仿佛在说"你真的需要和我一起做这件事,因为它太好了,而我似乎从这个产品中得不到任何快乐,这只是它有多高效的标志。"AI 能做的事情没有任何轻松或快乐的成分。大语言模型没有任何古怪或异想天开之处,每次互动都感觉空洞。

那些拼命寻找它正变得有意识或"更强大"的线索的人,只是在寻求自我验证——他们想成为第一个发现某事的人,因为得出别人的结论就是他们谋生的方式。

成为"第一个"——可以说在"前沿"——是人们在内心找不到东西时渴望的,这正是骗子渴望的燃料,因为大语言模型不断嗡嗡作响,给人一种即将做出新事物的感觉,尽管它们在数学上被限制为重复其他行动。

这是一个深深悲哀的时代。那些如此积极地共同努力支撑这个行业的人,只是推迟了它不可避免的衰落。让我感到恐惧的是,我们的市场和部分经济被普遍持有但完全未经证实的假设所支撑,即大语言模型会以某种方式变得更便宜,AI 初创公司会神奇地变得盈利,提供 AI 算力将永久盈利,以至于需要在 2030 年前将当前供应增加十倍。

人们为了捍卫 AI 行业而贬低自己,因为这就是该行业对其信徒的要求。要成为"AI 专家"需要你主动忽视历史上任何行业最糟糕的经济状况,不断为产品明显而刺眼的问题辩解,并积极说服其他人也这样做。OpenAI 和 Anthropic 不提供如何盈利的清晰解释,因为他们知道支持者永远不会要求——因为完全"相信 AI"的唯一方法就是主动戴上眼罩。

我理解。如果你承认 OpenAI 和/或 Anthropic 最终会崩溃,这一切似乎有点疯狂。我真诚地请求你认真考虑这两家公司中的一家或两家会耗尽资金。

我真的很担心,而且媒体和更广泛社会普遍缺乏关注让我更加担心。

如果我必须想象,假设是我只是危言耸听,"需求绝对会在那里。"

你最好希望自己是对的。

至少为了 Larry Ellison 着想。Ellison 已经质押了 3.46 亿股 Oracle 股票——约 615 亿美元——"以担保某些个人债务,包括各种信用额度",意味着"许多大额、漂亮的以 Oracle 股票为抵押的贷款。"IFR 在 9 月份(当时 Oracle 股价高得多)估计,这可能让他以(他们说的"保守的")20%贷款价值比获得多达 214 亿美元的债务,这还是假设银行不是特别慷慨。

如果 OpenAI 在 2030 年底前无法筹集到 8520 亿美元的收入和资金,它将无法支付 Stargate 的费用。这将扼杀 Oracle 股票的价值,导致一系列追加保证金通知,导致 Ellison 不得不出售股票,导致进一步的追加保证金通知。无论存在什么救助,都救不了 Larry 的资产。

我要说的是,Ellison 的未来取决于 Sam Altman 在 4 年内筹集资金并创造 8520 亿美元收入的能力。

祝你好运,Larry!你会需要的。

Nội dung Liên quan

Polymarket Bị Kẹt: Bài Kiểm Tra Thực Sự Sau Khi Vượt Qua Giai Đoạn Lưu Lượng Tăng Đột Biến

Polymarket, nền tảng dự đoán thị trường hàng đầu, đang đối mặt với thách thức lớn khi trải nghiệm giao dịch xuống cấp do hạ tầng không theo kịp đà tăng trưởng. Phó chủ tịch kỹ thuật Josh Stevens thừa nhận vấn đề và công bố kế hoạch cải tổ toàn diện, bao gồm: giảm độ trễ dữ liệu, sửa lỗi hủy lệnh, xây dựng lại hệ thống order book (CLOB), nâng cao hiệu suất website, và quan trọng nhất là di chuyển chain (chain migration). Nguyên nhân sâu xa nằm ở việc Polymarket không còn là ứng dụng dự đoán đơn thuần mà đã phát triển thành một nền tảng giao dịch tần suất cao. Polygon, từng là lựa chọn chi phí thấp hoàn hảo, giờ đây trở thành rào cản kỹ thuật. Động thái này ngay lập tức thu hút sự quan tâm của các blockchain khác như Solana, Sui, Algorand... trong khi Polygon nỗ lực giữ chân ứng dụng quan trọng này - nguồn đóng góp phí giao dịch đáng kể cho hệ sinh thái của họ. Bài kiểm tra thực sự của Polymarket không chỉ là chọn chain mới, mà là xây dựng một hệ thống giao dịch đủ mạnh và ổn định để giữ chân người dùng trong giai đoạn tăng trưởng mới, nơi độ tin cậy quan trọng hơn bao giờ hết.

Odaily星球日报2 ngày trước 03:21

Polymarket Bị Kẹt: Bài Kiểm Tra Thực Sự Sau Khi Vượt Qua Giai Đoạn Lưu Lượng Tăng Đột Biến

Odaily星球日报2 ngày trước 03:21

Điều chỉnh kỳ vọng giảm cho chu kỳ tăng giá tiếp theo của BTC

Tác giả Alex Xu, một nhà đầu tư Bitcoin lâu năm, đã chia sẻ quyết định giảm dần tỷ trọng BTC trong danh mục đầu tư của mình, từ vị thế lớn nhất xuống còn khoảng 30%, và giải thích lý do cho việc điều chỉnh kỳ vọng về đỉnh giá trong chu kỳ bull market tiếp theo. Các lý do chính bao gồm: 1. **Năng lượng tăng trưởng tiềm năng giảm:** Các chu kỳ trước được thúc đẩy bởi việc mở rộng đối tượng đầu tư theo cấp số nhân (từ cá nhân đến tổ chức). Chu kỳ tới cần sự chấp nhận từ các quỹ đầu tư quốc gia hoặc ngân hàng trung ương, điều này khó xảy ra trong 2-3 năm tới. 2. **Chi phí cơ hội cá nhân:** Tìm thấy nhiều cơ hội đầu tư hấp dẫn khác (cổ phiếu công ty) với mức giá hợp lý. 3. **Tác động tiêu cực từ sự thu hẹp của ngành crypto:** Nhiều mô hình Web3 (SocialFi, GameFi...) không thành công, dẫn đến sự thu hẹp của toàn ngành và làm chậm tốc độ tăng trưởng số người nắm giữ BTC. 4. **Áp lực từ nhà mua lớn nhất (MicroStrategy):** Chi phí huy động vốn của MicroStrategy tiếp tục tăng cao (lãi suất 11.5%), có thể làm giảm tốc độ mua vào và gây áp lực bán. 5. **Sự cạnh tranh từ Vàng được token hóa:** Sản phẩm vàng token hóa (tokenized gold) đã thu hẹp khoảng cách về tính dễ chia nhỏ, dễ mang theo và dễ xác minh so với BTC. 6. **Vấn đề ngân sách bảo mật:** Phần thưởng khối giảm sau mỗi lần halving làm trầm trọng thêm vấn đề ngân sách cho bảo mật mạng lưới. Tác giả vẫn giữ một phần BTC đáng kể và sẵn sàng mua lại nếu các lý kiến trên được giải quyết hoặc xuất hiện các yếu tố tích cực mới, với điều kiện giá cả phù hợp.

marsbit2 ngày trước 02:46

Điều chỉnh kỳ vọng giảm cho chu kỳ tăng giá tiếp theo của BTC

marsbit2 ngày trước 02:46

Giao dịch

Giao ngay
Hợp đồng Tương lai

Bài viết Nổi bật

GROK AI là gì

Grok AI: Cách mạng hóa Công nghệ Đối thoại trong Kỷ nguyên Web3 Giới thiệu Trong bối cảnh trí tuệ nhân tạo đang phát triển nhanh chóng, Grok AI nổi bật như một dự án đáng chú ý kết nối các lĩnh vực công nghệ tiên tiến và tương tác người dùng. Được phát triển bởi xAI, một công ty do doanh nhân nổi tiếng Elon Musk dẫn dắt, Grok AI nhằm định nghĩa lại cách chúng ta tương tác với trí tuệ nhân tạo. Khi phong trào Web3 tiếp tục phát triển mạnh mẽ, Grok AI hướng tới việc tận dụng sức mạnh của AI đối thoại để trả lời các câu hỏi phức tạp, mang đến cho người dùng một trải nghiệm không chỉ thông tin mà còn giải trí. Grok AI là gì? Grok AI là một chatbot AI đối thoại tinh vi được thiết kế để tương tác với người dùng một cách linh hoạt. Khác với nhiều hệ thống AI truyền thống, Grok AI chấp nhận một loạt các câu hỏi rộng hơn, bao gồm những câu hỏi thường được coi là không phù hợp hoặc ngoài các phản hồi tiêu chuẩn. Các mục tiêu cốt lõi của dự án bao gồm: Lập luận đáng tin cậy: Grok AI nhấn mạnh lập luận theo lẽ thường để cung cấp các câu trả lời hợp lý dựa trên sự hiểu biết về ngữ cảnh. Giám sát có thể mở rộng: Việc tích hợp công cụ hỗ trợ đảm bảo rằng các tương tác của người dùng được theo dõi và tối ưu hóa về chất lượng. Xác minh chính thức: An toàn là điều tối quan trọng; Grok AI tích hợp các phương pháp xác minh chính thức để nâng cao độ tin cậy của các đầu ra của nó. Hiểu biết về ngữ cảnh dài: Mô hình AI xuất sắc trong việc giữ lại và nhớ lại lịch sử cuộc trò chuyện dài, tạo điều kiện cho các cuộc thảo luận có ý nghĩa và nhận thức về ngữ cảnh. Khả năng chống lại các cuộc tấn công: Bằng cách tập trung vào việc cải thiện khả năng phòng thủ chống lại các đầu vào bị thao túng hoặc độc hại, Grok AI nhằm duy trì tính toàn vẹn của các tương tác của người dùng. Nói tóm lại, Grok AI không chỉ là một thiết bị truy xuất thông tin; nó là một đối tác đối thoại hấp dẫn khuyến khích cuộc trò chuyện năng động. Người sáng tạo Grok AI Bộ óc đứng sau Grok AI không ai khác chính là Elon Musk, một cá nhân gắn liền với sự đổi mới trong nhiều lĩnh vực, bao gồm ô tô, du hành vũ trụ và công nghệ. Dưới sự bảo trợ của xAI, một công ty tập trung vào việc phát triển công nghệ AI theo những cách có lợi, tầm nhìn của Musk nhằm định hình lại cách hiểu về các tương tác AI. Sự lãnh đạo và tinh thần nền tảng bị ảnh hưởng sâu sắc bởi cam kết của Musk trong việc thúc đẩy các ranh giới công nghệ. Các nhà đầu tư của Grok AI Mặc dù các chi tiết cụ thể về các nhà đầu tư hỗ trợ Grok AI vẫn còn hạn chế, nhưng đã được công nhận công khai rằng xAI, vườn ươm của dự án, được thành lập và hỗ trợ chủ yếu bởi chính Elon Musk. Các dự án và tài sản trước đây của Musk cung cấp một nền tảng vững chắc, tăng cường thêm độ tin cậy và tiềm năng phát triển của Grok AI. Tuy nhiên, tính đến thời điểm hiện tại, thông tin về các quỹ đầu tư hoặc tổ chức bổ sung hỗ trợ Grok AI vẫn chưa dễ dàng tiếp cận, đánh dấu một lĩnh vực có thể khám phá trong tương lai. Grok AI hoạt động như thế nào? Cơ chế hoạt động của Grok AI sáng tạo không kém gì khung khái niệm của nó. Dự án tích hợp một số công nghệ tiên tiến giúp tạo ra các chức năng độc đáo của nó: Hạ tầng mạnh mẽ: Grok AI được xây dựng bằng Kubernetes cho việc điều phối container, Rust cho hiệu suất và an toàn, và JAX cho tính toán số hiệu suất cao. Bộ ba này đảm bảo rằng chatbot hoạt động hiệu quả, mở rộng hiệu quả và phục vụ người dùng kịp thời. Truy cập kiến thức theo thời gian thực: Một trong những tính năng nổi bật của Grok AI là khả năng truy cập dữ liệu theo thời gian thực thông qua nền tảng X—trước đây được biết đến với tên gọi Twitter. Khả năng này cho phép AI truy cập thông tin mới nhất, giúp nó cung cấp các câu trả lời và khuyến nghị kịp thời mà các mô hình AI khác có thể bỏ lỡ. Hai chế độ tương tác: Grok AI cung cấp cho người dùng sự lựa chọn giữa “Chế độ Vui” và “Chế độ Thông thường.” Chế độ Vui cho phép một phong cách tương tác vui tươi và hài hước hơn, trong khi Chế độ Thông thường tập trung vào việc cung cấp các câu trả lời chính xác và đúng đắn. Sự linh hoạt này đảm bảo một trải nghiệm được cá nhân hóa phù hợp với sở thích của từng người dùng. Nói tóm lại, Grok AI kết hợp hiệu suất với sự tương tác, tạo ra một trải nghiệm vừa phong phú vừa giải trí. Thời gian phát triển của Grok AI Hành trình của Grok AI được đánh dấu bởi các cột mốc quan trọng phản ánh các giai đoạn phát triển và triển khai của nó: Phát triển ban đầu: Giai đoạn nền tảng của Grok AI diễn ra trong khoảng hai tháng, trong đó việc đào tạo và tinh chỉnh ban đầu của mô hình được thực hiện. Phát hành Beta Grok-2: Trong một bước tiến quan trọng, beta Grok-2 đã được công bố. Phiên bản này giới thiệu hai phiên bản của chatbot—Grok-2 và Grok-2 mini—mỗi phiên bản đều có khả năng trò chuyện, lập trình và lập luận. Truy cập công khai: Sau khi phát triển beta, Grok AI đã trở thành có sẵn cho người dùng nền tảng X. Những người có tài khoản được xác minh bằng số điện thoại và hoạt động ít nhất bảy ngày có thể truy cập phiên bản giới hạn, giúp công nghệ có sẵn cho một đối tượng rộng lớn hơn. Thời gian này tóm tắt sự phát triển có hệ thống của Grok AI từ lúc khởi đầu đến khi công khai, nhấn mạnh cam kết của nó đối với việc cải tiến liên tục và tương tác người dùng. Các tính năng chính của Grok AI Grok AI bao gồm một số tính năng chính góp phần vào bản sắc đổi mới của nó: Tích hợp kiến thức theo thời gian thực: Truy cập thông tin hiện tại và liên quan phân biệt Grok AI với nhiều mô hình tĩnh, cho phép một trải nghiệm người dùng hấp dẫn và chính xác. Phong cách tương tác đa dạng: Bằng cách cung cấp các chế độ tương tác khác nhau, Grok AI phục vụ cho sở thích đa dạng của người dùng, khuyến khích sự sáng tạo và cá nhân hóa trong việc trò chuyện với AI. Cơ sở công nghệ tiên tiến: Việc sử dụng Kubernetes, Rust và JAX cung cấp cho dự án một khung vững chắc để đảm bảo độ tin cậy và hiệu suất tối ưu. Xem xét về đạo đức trong đối thoại: Việc bao gồm chức năng tạo hình ảnh thể hiện tinh thần đổi mới của dự án. Tuy nhiên, nó cũng đặt ra các vấn đề đạo đức liên quan đến bản quyền và việc thể hiện tôn trọng các nhân vật dễ nhận biết—một cuộc thảo luận đang diễn ra trong cộng đồng AI. Kết luận Như một thực thể tiên phong trong lĩnh vực AI đối thoại, Grok AI khái quát tiềm năng cho những trải nghiệm người dùng chuyển đổi trong kỷ nguyên số. Được phát triển bởi xAI và được thúc đẩy bởi cách tiếp cận tầm nhìn của Elon Musk, Grok AI tích hợp kiến thức theo thời gian thực với khả năng tương tác tiên tiến. Nó cố gắng mở rộng ranh giới của những gì trí tuệ nhân tạo có thể đạt được trong khi vẫn giữ trọng tâm vào các vấn đề đạo đức và an toàn cho người dùng. Grok AI không chỉ thể hiện sự tiến bộ công nghệ mà còn thể hiện một mô hình đối thoại mới trong bối cảnh Web3, hứa hẹn sẽ thu hút người dùng bằng cả kiến thức sâu sắc và sự tương tác vui tươi. Khi dự án tiếp tục phát triển, nó đứng như một minh chứng cho những gì giao thoa giữa công nghệ, sáng tạo và tương tác giống như con người có thể đạt được.

Tổng lượt xem 481Xuất bản vào 2024.12.26Cập nhật vào 2024.12.26

GROK AI là gì

ERC AI là gì

Euruka Tech: Tổng Quan về $erc ai và Những Tham Vọng trong Web3 Giới thiệu Trong bối cảnh công nghệ blockchain và ứng dụng phi tập trung đang phát triển nhanh chóng, các dự án mới thường xuyên xuất hiện, mỗi dự án đều có những mục tiêu và phương pháp độc đáo. Một trong những dự án đó là Euruka Tech, hoạt động trong lĩnh vực tiền điện tử và Web3 rộng lớn. Mục tiêu chính của Euruka Tech, đặc biệt là token $erc ai của nó, là cung cấp các giải pháp sáng tạo nhằm khai thác những khả năng đang phát triển của công nghệ phi tập trung. Bài viết này nhằm cung cấp một cái nhìn tổng quan về Euruka Tech, khám phá các mục tiêu, chức năng, danh tính của người sáng lập, các nhà đầu tư tiềm năng và tầm quan trọng của nó trong bối cảnh rộng lớn hơn của Web3. Euruka Tech, $erc ai là gì? Euruka Tech được mô tả như một dự án tận dụng các công cụ và chức năng mà môi trường Web3 cung cấp, tập trung vào việc tích hợp trí tuệ nhân tạo trong các hoạt động của nó. Mặc dù các chi tiết cụ thể về khung của dự án vẫn còn mơ hồ, nhưng nó được thiết kế để nâng cao sự tham gia của người dùng và tự động hóa các quy trình trong không gian tiền điện tử. Dự án nhằm tạo ra một hệ sinh thái phi tập trung không chỉ tạo điều kiện cho các giao dịch mà còn tích hợp các chức năng dự đoán thông qua trí tuệ nhân tạo, do đó tên gọi của token, $erc ai. Mục tiêu là cung cấp một nền tảng trực quan giúp tạo ra các tương tác thông minh hơn và xử lý giao dịch hiệu quả hơn trong lĩnh vực Web3 đang phát triển. Ai là Người Sáng Lập Euruka Tech, $erc ai? Hiện tại, thông tin về người sáng lập hoặc đội ngũ sáng lập đứng sau Euruka Tech vẫn chưa được xác định và có phần mờ mịt. Sự thiếu hụt dữ liệu này gây ra lo ngại, vì kiến thức về nền tảng của đội ngũ thường rất quan trọng để thiết lập độ tin cậy trong lĩnh vực blockchain. Do đó, chúng tôi đã phân loại thông tin này là không rõ cho đến khi có các chi tiết cụ thể được công bố trong lĩnh vực công cộng. Ai là Các Nhà Đầu Tư của Euruka Tech, $erc ai? Tương tự, việc xác định các nhà đầu tư hoặc tổ chức hỗ trợ cho dự án Euruka Tech không được cung cấp dễ dàng qua các nghiên cứu hiện có. Một khía cạnh quan trọng đối với các bên liên quan tiềm năng hoặc người dùng đang xem xét tham gia vào Euruka Tech là sự đảm bảo đến từ các quan hệ đối tác tài chính đã được thiết lập hoặc sự hỗ trợ từ các công ty đầu tư uy tín. Thiếu thông tin về các mối quan hệ đầu tư, rất khó để rút ra những kết luận toàn diện về sự an toàn tài chính hoặc độ bền vững của dự án. Theo thông tin đã tìm thấy, phần này cũng đang ở trạng thái không rõ. Euruka Tech, $erc ai hoạt động như thế nào? Mặc dù thiếu các thông số kỹ thuật chi tiết cho Euruka Tech, nhưng điều quan trọng là phải xem xét những tham vọng đổi mới của nó. Dự án tìm cách tận dụng sức mạnh tính toán của trí tuệ nhân tạo để tự động hóa và nâng cao trải nghiệm người dùng trong môi trường tiền điện tử. Bằng cách tích hợp AI với công nghệ blockchain, Euruka Tech nhằm cung cấp các tính năng như giao dịch tự động, đánh giá rủi ro và giao diện người dùng cá nhân hóa. Bản chất đổi mới của Euruka Tech nằm ở mục tiêu tạo ra một kết nối liền mạch giữa người dùng và những khả năng rộng lớn mà các mạng phi tập trung mang lại. Thông qua việc sử dụng các thuật toán học máy và AI, nó nhằm giảm thiểu những thách thức mà người dùng lần đầu gặp phải và tinh giản trải nghiệm giao dịch trong khuôn khổ Web3. Sự cộng sinh giữa AI và blockchain nhấn mạnh tầm quan trọng của token $erc ai, đứng như một cầu nối giữa các giao diện người dùng truyền thống và các khả năng tiên tiến của công nghệ phi tập trung. Thời Gian của Euruka Tech, $erc ai Thật không may, do thông tin hạn chế hiện có về Euruka Tech, chúng tôi không thể trình bày một thời gian biểu chi tiết về các phát triển chính hoặc cột mốc trong hành trình của dự án. Thời gian biểu này, thường rất quý giá trong việc vạch ra sự tiến triển của một dự án và hiểu được quỹ đạo phát triển của nó, hiện không có sẵn. Khi thông tin về các sự kiện đáng chú ý, quan hệ đối tác hoặc các bổ sung chức năng trở nên rõ ràng, các cập nhật chắc chắn sẽ nâng cao sự hiện diện của Euruka Tech trong lĩnh vực tiền điện tử. Làm rõ về Các Dự Án “Eureka” Khác Điều đáng lưu ý là nhiều dự án và công ty chia sẻ một tên gọi tương tự với “Eureka.” Nghiên cứu đã xác định các sáng kiến như một đại lý AI từ NVIDIA Research, tập trung vào việc dạy robot thực hiện các nhiệm vụ phức tạp bằng các phương pháp sinh tạo, cũng như Eureka Labs và Eureka AI, cải thiện trải nghiệm người dùng trong giáo dục và phân tích dịch vụ khách hàng, tương ứng. Tuy nhiên, những dự án này là khác biệt với Euruka Tech và không nên bị nhầm lẫn với các mục tiêu hoặc chức năng của nó. Kết luận Euruka Tech, cùng với token $erc ai của nó, đại diện cho một người chơi hứa hẹn nhưng hiện tại còn mờ mịt trong bối cảnh Web3. Trong khi chi tiết về người sáng lập và các nhà đầu tư vẫn chưa được công bố, tham vọng cốt lõi của việc kết hợp trí tuệ nhân tạo với công nghệ blockchain vẫn là một điểm thu hút sự chú ý. Các phương pháp độc đáo của dự án trong việc thúc đẩy sự tham gia của người dùng thông qua tự động hóa tiên tiến có thể giúp nó nổi bật khi hệ sinh thái Web3 tiến triển. Khi thị trường tiền điện tử tiếp tục phát triển, các bên liên quan nên theo dõi chặt chẽ những tiến bộ xung quanh Euruka Tech, vì sự phát triển của các đổi mới đã được ghi chép, các quan hệ đối tác hoặc một lộ trình rõ ràng có thể mang lại những cơ hội đáng kể trong tương lai gần. Hiện tại, chúng tôi đang chờ đợi những hiểu biết sâu sắc hơn có thể tiết lộ tiềm năng của Euruka Tech và vị trí của nó trong bối cảnh cạnh tranh của tiền điện tử.

Tổng lượt xem 477Xuất bản vào 2025.01.02Cập nhật vào 2025.01.02

ERC AI là gì

DUOLINGO AI là gì

DUOLINGO AI: Tích hợp Học ngôn ngữ với Web3 và Đổi mới AI Trong một kỷ nguyên mà công nghệ định hình lại giáo dục, việc tích hợp trí tuệ nhân tạo (AI) và các mạng blockchain báo hiệu một biên giới mới cho việc học ngôn ngữ. Giới thiệu DUOLINGO AI và đồng tiền điện tử liên quan của nó, $DUOLINGO AI. Dự án này mong muốn kết hợp sức mạnh giáo dục của các nền tảng học ngôn ngữ hàng đầu với những lợi ích của công nghệ Web3 phi tập trung. Bài viết này đi sâu vào các khía cạnh chính của DUOLINGO AI, khám phá các mục tiêu, khung công nghệ, sự phát triển lịch sử và tiềm năng tương lai trong khi duy trì sự rõ ràng giữa tài nguyên giáo dục gốc và sáng kiến tiền điện tử độc lập này. Tổng quan về DUOLINGO AI Cốt lõi của DUOLINGO AI là thiết lập một môi trường phi tập trung nơi người học có thể kiếm được phần thưởng mã hóa cho việc đạt được các cột mốc giáo dục trong khả năng ngôn ngữ. Bằng cách áp dụng hợp đồng thông minh, dự án nhằm tự động hóa các quy trình xác minh kỹ năng và phân bổ token, tuân thủ các nguyên tắc Web3 nhấn mạnh tính minh bạch và quyền sở hữu của người dùng. Mô hình này khác biệt so với các phương pháp truyền thống trong việc tiếp cận ngôn ngữ bằng cách dựa nhiều vào cấu trúc quản trị do cộng đồng điều hành, cho phép những người nắm giữ token đề xuất cải tiến nội dung khóa học và phân phối phần thưởng. Một số mục tiêu đáng chú ý của DUOLINGO AI bao gồm: Học tập gamified: Dự án tích hợp các thành tựu blockchain và token không thể thay thế (NFT) để đại diện cho các cấp độ thành thạo ngôn ngữ, thúc đẩy động lực thông qua các phần thưởng kỹ thuật số hấp dẫn. Tạo nội dung phi tập trung: Nó mở ra cơ hội cho các nhà giáo dục và những người yêu thích ngôn ngữ đóng góp khóa học của họ, tạo điều kiện cho một mô hình chia sẻ doanh thu có lợi cho tất cả các bên đóng góp. Cá nhân hóa dựa trên AI: Bằng cách sử dụng các mô hình học máy tiên tiến, DUOLINGO AI cá nhân hóa các bài học để thích ứng với tiến trình học tập của từng cá nhân, tương tự như các tính năng thích ứng có trong các nền tảng đã được thiết lập. Người sáng lập dự án và Quản trị Tính đến tháng 4 năm 2025, đội ngũ đứng sau $DUOLINGO AI vẫn giữ bí danh, một thực tiễn phổ biến trong lĩnh vực tiền điện tử phi tập trung. Sự ẩn danh này nhằm thúc đẩy sự phát triển tập thể và sự tham gia của các bên liên quan thay vì tập trung vào các nhà phát triển cá nhân. Hợp đồng thông minh được triển khai trên blockchain Solana ghi chú địa chỉ ví của nhà phát triển, điều này thể hiện cam kết về tính minh bạch liên quan đến các giao dịch mặc dù danh tính của các nhà sáng lập vẫn chưa được biết đến. Theo lộ trình của nó, DUOLINGO AI dự định phát triển thành một Tổ chức Tự trị Phi tập trung (DAO). Cấu trúc quản trị này cho phép những người nắm giữ token bỏ phiếu về các vấn đề quan trọng như triển khai tính năng và phân bổ ngân quỹ. Mô hình này phù hợp với tinh thần trao quyền cho cộng đồng có trong nhiều ứng dụng phi tập trung, nhấn mạnh tầm quan trọng của việc ra quyết định tập thể. Nhà đầu tư và Đối tác chiến lược Hiện tại, không có nhà đầu tư tổ chức hoặc nhà đầu tư mạo hiểm nào được xác định công khai liên quan đến $DUOLINGO AI. Thay vào đó, tính thanh khoản của dự án chủ yếu đến từ các sàn giao dịch phi tập trung (DEX), đánh dấu một sự tương phản rõ rệt với các chiến lược tài trợ của các công ty công nghệ giáo dục truyền thống. Mô hình cơ sở này cho thấy một cách tiếp cận do cộng đồng điều hành, phản ánh cam kết của dự án đối với sự phi tập trung. Trong tài liệu trắng của mình, DUOLINGO AI đề cập đến việc hình thành các hợp tác với các “nền tảng giáo dục blockchain” không xác định nhằm làm phong phú thêm các khóa học của mình. Mặc dù các đối tác cụ thể vẫn chưa được công bố, những nỗ lực hợp tác này gợi ý về một chiến lược kết hợp đổi mới blockchain với các sáng kiến giáo dục, mở rộng quyền truy cập và sự tham gia của người dùng qua nhiều con đường học tập khác nhau. Kiến trúc công nghệ Tích hợp AI DUOLINGO AI tích hợp hai thành phần chính dựa trên AI để nâng cao các đề xuất giáo dục của mình: Công cụ học tập thích ứng: Công cụ tinh vi này học từ các tương tác của người dùng, tương tự như các mô hình độc quyền từ các nền tảng giáo dục lớn. Nó điều chỉnh độ khó của bài học một cách linh hoạt để giải quyết các thách thức cụ thể của người học, củng cố các lĩnh vực yếu thông qua các bài tập có mục tiêu. Đại lý hội thoại: Bằng cách sử dụng chatbot được hỗ trợ bởi GPT-4, DUOLINGO AI cung cấp một nền tảng cho người dùng tham gia vào các cuộc hội thoại mô phỏng, thúc đẩy một trải nghiệm học ngôn ngữ tương tác và thực tiễn hơn. Hạ tầng Blockchain Được xây dựng trên blockchain Solana, $DUOLINGO AI sử dụng một khung công nghệ toàn diện bao gồm: Hợp đồng thông minh xác minh kỹ năng: Tính năng này tự động trao token cho người dùng đã vượt qua các bài kiểm tra thành thạo, củng cố cấu trúc khuyến khích cho các kết quả học tập thực sự. Huy hiệu NFT: Những token kỹ thuật số này biểu thị các cột mốc khác nhau mà người học đạt được, chẳng hạn như hoàn thành một phần của khóa học hoặc thành thạo các kỹ năng cụ thể, cho phép họ giao dịch hoặc trưng bày thành tích của mình một cách kỹ thuật số. Quản trị DAO: Các thành viên cộng đồng nắm giữ token có thể tham gia vào quản trị bằng cách bỏ phiếu về các đề xuất chính, tạo điều kiện cho một văn hóa tham gia khuyến khích đổi mới trong các đề xuất khóa học và tính năng của nền tảng. Dòng thời gian lịch sử 2022–2023: Khái niệm Công việc chuẩn bị cho DUOLINGO AI bắt đầu với việc tạo ra một tài liệu trắng, nêu bật sự phối hợp giữa những tiến bộ AI trong học ngôn ngữ và tiềm năng phi tập trung của công nghệ blockchain. 2024: Ra mắt Beta Một phiên bản beta giới hạn giới thiệu các đề xuất trong các ngôn ngữ phổ biến, thưởng cho người dùng sớm bằng các phần thưởng token như một phần của chiến lược tham gia cộng đồng của dự án. 2025: Chuyển đổi DAO Vào tháng 4, một lần ra mắt mainnet đầy đủ diễn ra với sự lưu thông của các token, thúc đẩy các cuộc thảo luận trong cộng đồng về khả năng mở rộng sang các ngôn ngữ châu Á và các phát triển khóa học khác. Thách thức và Hướng đi tương lai Khó khăn kỹ thuật Mặc dù có những mục tiêu tham vọng, DUOLINGO AI phải đối mặt với những thách thức đáng kể. Khả năng mở rộng vẫn là một mối quan tâm liên tục, đặc biệt là trong việc cân bằng chi phí liên quan đến xử lý AI và duy trì một mạng lưới phi tập trung phản hồi. Ngoài ra, việc đảm bảo chất lượng tạo nội dung và quản lý trong bối cảnh cung cấp phi tập trung đặt ra những phức tạp trong việc duy trì tiêu chuẩn giáo dục. Cơ hội chiến lược Nhìn về phía trước, DUOLINGO AI có tiềm năng tận dụng các quan hệ đối tác cấp chứng chỉ vi mô với các tổ chức học thuật, cung cấp các xác nhận kỹ năng ngôn ngữ được xác minh bằng blockchain. Hơn nữa, việc mở rộng chuỗi chéo có thể cho phép dự án tiếp cận các cơ sở người dùng rộng hơn và các hệ sinh thái blockchain bổ sung, nâng cao khả năng tương tác và phạm vi tiếp cận của nó. Kết luận DUOLINGO AI đại diện cho một sự kết hợp đổi mới giữa trí tuệ nhân tạo và công nghệ blockchain, cung cấp một lựa chọn tập trung vào cộng đồng thay thế cho các hệ thống học ngôn ngữ truyền thống. Mặc dù sự phát triển bí danh và mô hình kinh tế mới nổi của nó mang lại một số rủi ro, cam kết của dự án đối với học tập gamified, giáo dục cá nhân hóa và quản trị phi tập trung mở ra một con đường phía trước cho công nghệ giáo dục trong lĩnh vực Web3. Khi AI tiếp tục phát triển và hệ sinh thái blockchain tiến hóa, các sáng kiến như DUOLINGO AI có thể định hình lại cách người dùng tương tác với giáo dục ngôn ngữ, trao quyền cho cộng đồng và thưởng cho sự tham gia thông qua các cơ chế học tập đổi mới.

Tổng lượt xem 504Xuất bản vào 2025.04.11Cập nhật vào 2025.04.11

DUOLINGO AI là gì

Thảo luận

Chào mừng đến với Cộng đồng HTX. Tại đây, bạn có thể được thông báo về những phát triển nền tảng mới nhất và có quyền truy cập vào thông tin chuyên sâu về thị trường. Ý kiến ​​của người dùng về giá của AI (AI) được trình bày dưới đây.

活动图片