GitHub Copilot 改收费,揭开了 AI 行业最大的谎言

marsbitPubblicato 2026-04-29Pubblicato ultima volta 2026-04-29

作者:Ed Zitron

编译:深潮 TechFlow

深潮导读:微软终于撑不住了,GitHub Copilot 从月费制改为按 token 计费。这不是产品升级,而是整个 AI 行业补贴骗局的集体破产——OpenAI、Anthropic 们用月费掩盖真实成本,让用户每花 1 美元就烧掉 8-13 美元的算力,训练出一代根本不可能持续的使用习惯。当价格回归现实,你会发现那些"革命性"的 AI 工具,可能只是昂贵的玩具。

我刚写了一篇关于 OpenAI 如何干掉 Oracle 的文章,今天这篇用了其中一些材料。这是我写过最好的文章之一,我非常自豪。

订阅付费版既超值,也让我能每周写出这些大型、深度研究的免费文章。

昨天早上,GitHub Copilot 用户得到了我一周前报道过的消息确认——所有 GitHub Copilot 计划将在 2026 年 6 月 1 日改为按使用量计费。

微软不再给用户一定数量的"请求次数",而是根据用户实际使用的模型成本收费,微软称这是"......朝着可持续、可靠的 Copilot 业务和所有用户体验迈出的重要一步。"用户现在能用多少,取决于他们订阅费能买多少 token(比如每月 19 美元的计划能用 19 美元的 token)。

翻译:我们不能继续补贴 GitHub Copilot 用户了,否则 Amy Hood(微软 CFO)会开始用棒球棒打人。

这份公告本身就是个有趣的预览,展示了这些价格变动会如何被包装:

Copilot 已经不是一年前的产品了。它已经从编辑器内的助手进化为一个能运行长时间、多步骤编码会话的智能体平台,使用最新模型,在整个代码库中迭代。智能体使用正在成为默认模式,这带来了显著更高的计算和推理需求。现在,一个快速的聊天问题和一个数小时的自主编码会话,用户付的钱可能是一样的。GitHub 一直在吸收这种使用背后不断攀升的推理成本,但目前基于请求次数的高级模式已经不可持续了。按使用量计费解决了这个问题。它更好地将定价与实际使用对齐,帮助我们维持长期服务可靠性,并减少限制重度用户的需要。

你看,不是微软在补贴近两百万人的算力,而是 AI 变得如此强大、复杂,基本上成了一个不同的产品!

虽然 Copilot 可能"不是一年前的产品了",但底层经济错配几乎没变:微软三年来一直允许用户每月烧掉超过订阅费的 token。根据《华尔街日报》2023 年 10 月的报道:

个人用户每月支付 10 美元使用这个 AI 助手。根据一位知情人士透露的数据,今年前几个月,该公司平均每个用户每月亏损超过 20 美元,有些用户每月让公司花掉 80 美元。

自然,GitHub Copilot 用户现在造反了,说产品"死了"、"彻底毁了"。

我两年前在《次贷 AI 危机》中就预言过这一天:

那一天终于到了,因为你用的每一个 AI 服务都在补贴算力,每一个服务都因此亏钱:

当你为 AI 创业公司的服务付费时——当然包括 OpenAI 和 Anthropic——你支付的是月费,比如 Anthropic 的 Claude 每月 20、100 或 200 美元,Perplexity 每月 20 或 200 美元,或者 OpenAI 每月 8、20 或 200 美元的订阅。在一些企业场景中,你会得到某些工作单位的"额度",比如 Lovable 在每月 25 美元的订阅中给用户"100 个月度额度",以及 25 美元的云托管(到 2026 年第一季度末),额度可以跨月滚存。当你使用这些服务时,相关公司要么按每百万 token 的费率向 AI 实验室付费,要么(对于 Anthropic 和 OpenAI)向云服务商支付租用 GPU 运行模型的费用。一个 token 基本上是 3/4 个单词。作为用户,你感受不到 token 消耗,只是输入和输出的过程。AI 实验室用"tokens"、"消息"或带百分比计的 5 小时速率限制来掩盖服务成本,你作为用户,并不真正知道这一切要花多少钱。在后端,AI 创业公司在疯狂烧钱,直到最近 Anthropic 还允许你每花 1 美元订阅费就烧掉高达 8 美元的算力。OpenAI 也允许你这样做,虽然很难衡量具体多少。

AI 创业公司和云服务巨头以为,他们能用补贴、亏损的产品吸引足够多的人,让用户上瘾到当企业提价时也拒绝更换。我想他们还以为,token 成本会随时间下降,但实际发生的是——虽然一些模型的价格可能降了,但更新的"推理"模型烧掉更多 token,这意味着推理成本不知怎么随时间变得更高了。

两个假设都错了,因为月订阅模式对任何连接大语言模型的服务来说都说不通。

生成式 AI 的核心经济模式已经崩溃

这样想吧。当 Uber(不,这和 Uber 完全不一样)开始提高打车价格时,底层经济逻辑没变,呈现给乘客和司机的也没变——用户为一次行程付费,司机因一次行程收费。司机仍然要付油费、车险、当地政府可能要求的许可证,以及车辆可能产生的融资成本,这些成本不由 Uber 补贴。Uber 的巨额亏损来自补贴、无休止的营销费用,以及注定失败的无人驾驶汽车等研发努力。

生成式 AI 订阅和 Uber 完全不同

为了说明 AI 定价错配的规模,我要请你想象一个 Uber 有着非常不同商业模式的平行历史。

生成式 AI 订阅就像如果 Uber 每月收 20 美元让你打 100 次 100 英里以内的车,汽油 150 美元一加仑,而且 Uber 付油费,因为有人坚持认为石油总有一天会便宜到不值得计量。

Uber 最终会决定开始收取用户月费来获得打车资格,然后按用户消耗的汽油收费。突然间用户从每月 20 美元打 100 次车,变成支付 20 美元获得打车资格加上 10 英里行程 26 美元的油费。用户自然会有点不爽。

虽然这听起来有点夸张,但实际上是生成式 AI 行业正在发生的事情的相当准确的隐喻,尤其是在 GitHub Copilot。

GitHub Copilot 之前的定价允许每月 300 次高级请求,以及使用 GPT-5 mini 等模型的"无限聊天请求"。每个请求(引用微软的话)是"......你要求 Copilot 为你做某事的任何交互",在基于请求的系统后期,更昂贵的模型会占用更多请求,比如 Claude Opus 4.6 占用三次高级请求。当你用完高级请求时,Copilot 会让你在本月剩余时间里随意使用那些更便宜的模型。

情况也并非一直如此。直到 2025 年 5 月,微软还给用户无限使用模型,即便如此用户也对产品有任何限制感到愤怒。

微软——像每家 AI 公司一样——通过销售不可持续的服务欺骗了客户,因为销售基于月订阅的 LLM 驱动服务从来、从来都说不通。

如果你想知道基于 token 计费的服务可能要花多少钱,GitHub Copilot 子版块的一位用户发现,过去一次高级请求的 token 消耗大约是 11 美元,因为一次"请求"涉及在上下文窗口中使用 60,000 个 token、几个工具,以及一堆内部"轮次"(模型在做的事情)来产生输出。

还有容易产生幻觉的大语言模型的底层不可靠性。虽然一次高级请求陷入死循环并吐出半残代码可能令人沮丧,但当你自己付费时,同样的故障就没那么容易原谅了。

用户也被训练成以一种完全不同于基于 token 计费的方式使用产品,我想很多人甚至都没真正意识到他们烧了多少"tokens",或者某项特定任务需要多少,这会根据你使用的模型而变化。

这和 Uber 完全不同,任何告诉你相反的人都是在试图为恶劣行为辩护。Uber 可能提高了价格,但它不必戏剧性地改变平台的底层经济逻辑,用户也不必完全改变他们使用产品的方式,因为 Uber 突然开始按每加仑收费。

月度 AI 订阅都是 AI 补贴骗局的一部分,是刻意将生成式 AI 与其实际成本分离的企图

从来没有——也永远不会有——一种经济上可行的方式来提供由 LLM 驱动的服务,除非按每个用户实际的 token 消耗收费,而在欺骗这些用户的过程中,这些公司创造了具有虚幻好处和可疑投资回报的产品。

这多年来一直显而易见。

从经济学角度看,月订阅只有在成本相对静态时才合理。健身房可以销售会员资格,因为大致知道设备磨损多少、课程运营成本、以及电、员工和水在特定时期内可能花多少钱。

Google Workspace 的客户——至少在 AI 之前——的成本是访问或存储文档的费用,以及 Google Docs 和其他服务的持续成本。数字存储成本相对较低(而且与 LLM 不同,Google Workspace 对计算需求不高),意味着一个特别重度的 Google Drive 用户不会侵蚀他们月订阅的利润。

然而这些服务故意隐藏 token 数量或某项特定活动花了多少钱,这意味着用户并不真正知道速率限制意味着什么,这意味着速率限制的每次突然变化都让客户拼命想弄清楚他们能用服务做多少实际工作。

这是一种虐待性、操纵性和欺骗性的经商方式,它存在的唯一目的是让 Anthropic、OpenAI 和其他 AI 公司能够扩大用户基础,因为大多数 AI 用户完全通过能够每花 1 美元订阅费就烧掉 8 到 13.5 美元的 token 这个视角来感知其真实或想象的好处。

这种故意的欺骗行为只有一个目标:确保大多数人永远不会接触到生成式 AI 的真实成本。当《大西洋月刊》写一篇关于 Claude Code 是 Anthropic 的"ChatGPT 时刻"的激情檄文时,它基于的是每月 20 美元的订阅,而不是 Anthropic 提供它所花费的底层 token 消耗,这反过来让作者原谅模型可能犯的"小错误",或者当它"在更复杂的编程任务上卡住"时。

如果作者为她实际的 token 消耗付费,而且每次卡住都导致 15 美元的 token 费用,我不认为她会如此原谅这些故障。

但这都是骗局的一部分。

非常、非常重要的是,主流媒体中写 AI 的人实际上不理解这些服务要花多少钱,而且任何关于 ChatGPT 或 Claude Code 等服务的主流文章都是由几乎不知道每项单独任务可能让用户花多少钱的人写的。

记住:生成式 AI 服务大多是实验性产品,功能不像任何其他现代软件或硬件。人们不能就这样走到 ChatGPT 或 Claude 面前开始要求它工作。

我是说,你可以,但如果你提示不对、不理解它如何工作、或者在你喂给它的东西里犯错,或者如果它就是搞错了,它会吐出你不喜欢的东西,这反过来意味着你需要再次提示它。LLM 本质上是不可预测的。

你无法保证 LLM 会执行某个特定动作,或者它会呈现给你一个基于现实的结果。你无法确定某项特定任务——即使是你过去用 LLM 做过很多次的——可能要花多少钱,你也无法确定模型何时可能发疯删掉什么东西,或者干脆不做某事却声称它做了。

如果用户被迫支付实际费率,我想很多人会立刻放弃产品,因为如果你瞎折腾探索 LLM 能做什么,很容易就烧掉 5 美元的 token。

旁注:事实上,你可以在从未得到你想要的结果的情况下烧掉大量钱,因为 LLM 根本不是真正的人工智能!没有任何真正理解其局限性的人可以轻易烧掉 30、50 甚至 100 美元,试图说服 LLM 做它坚称自己能做的事。有个术语形容这个。谄媚。LLM 通常被设计为肯定用户,即使他们在说危险的疯话,这可以延伸到说"你想要这个技术上或经济上完全不可行的大事?"当然可以!这就是为什么行业如此努力地掩盖这些成本——这就是他妈的敲竹杠!

我认为大多数 AI 订阅转向基于 token 的计费是不可避免的,尤其是 Anthropic 和 OpenAI 现在都已经对企业客户这样做了。

普通公司能负担得起转向基于 Token 计费吗?Anthropic 估计用户每天在 Claude Code 上花 13-30 美元(每年 7000 多美元),大型组织每年花费数十万或数百万美元

正如我上周讨论的,Uber 的 CTO 在一个会议上说它在几个月内就花完了 2026 年的整个 AI 预算,高盛建议一些公司在 AI token 上花费高达员工薪酬的 10%,有可能在未来几个季度增加到 100%。

这是训练每一个 AI 用户尽可能多地使用这些服务同时掩盖其真实成本的直接结果。每一家要求每一个员工"尽可能多地使用 AI"的大公司都是在基本上忽略或完全脱离其实际 token 消耗的情况下这样做的,而随着公司被迫支付实际成本,我不确定你如何能在经济上证明对这项技术的任何投资是合理的。

当然,你会说工程师"更快地交付代码"之类的废话,我懂。但到底快了多少?你因此赚了或省了多少钱?如果你把 10%的人力成本花在 AI token 上,这笔额外开支有没有从其他地方补回来?我不确定有。我不确定任何在 token 上投入巨资的企业看到了投资回报,这也是为什么每项关于 AI 投资回报率的研究都找不到多少存在证据。

大多数情况下,你读到的那些对生成式 AI 各种可能性津津乐道的人,都是在不用承担真实成本的情况下体验它的。每个在 Twitter 上没完没了写他们整个工程团队疯狂使用 Claude Code 的疯子,用的都是每人每月 125 美元的 Teams 订阅,使用限制和 Anthropic 面向消费者的 100 美元月费订阅差不多。每个在 LinkedIn 上坚称自己用某个 Perplexity 产品"几分钟完成数小时工作"的怪物,最多也就是每月花 200 美元买 Perplexity 的 Max 订阅。

实际上,那个 10 人、每月 1250 美元的 Teams 订阅,很可能每月要烧掉 5000 到 10000 美元的 API 调用费用,甚至更多。Anthropic 增长主管 Amol Avasare 上周说,他们的 Max 订阅是为重度聊天使用设计的,而不是人们用 Claude Code 和 Cowork 做的那些事,并明确表示 Anthropic 现在在考虑"不同的选项来继续提供优质体验",换句话说就是"我们会在某个时候调整价格"。

我不确定人们是否意识到这些 token 有多贵,特别是涉及大型代码库并频繁调用编码和基础设施工具的编程项目。一个每月花 200 美元的人能负担得起 350、400 或 500 美元吗?他们能承受某个月花费超过这个数字吗?如果预算超支了怎么办?或者他们真的负担不起完成工作所需的费用怎么办?

给你一个更实际的例子,直到 4 月初,Anthropic 自己的 Claude Code 开发者文档(存档)还写着"[使用 Claude Code 的用户]平均成本是每个开发者每天 6 美元,90%的用户每日成本保持在 12 美元以下。"截至本周,文档现在这样写:

Claude Code 按 API token 消费收费。订阅计划定价(Pro、Max、Team、Enterprise)请见 claude.com/pricing。每个开发者的成本因模型选择、代码库大小和使用模式(如运行多个实例或自动化)而差异很大。在企业部署中,平均成本约为每个开发者每个活跃日 13 美元,每月 150-250 美元,90%用户的成本保持在每个活跃日 30 美元以下。要估算你团队的开支,从小型试点组开始,使用下面的跟踪工具建立基准,然后再推广。

如果我们假设一个月平均有 21 个工作日,Claude Code 用户的平均成本约为每月 273 美元,或每年 3276 美元。按每个工作日 30 美元算,就是每月 630 美元,或每年 7560 美元。

这些数字惊人,更惊人的是,如果你使用 Anthropic 任何较新的模型,你不可能只花每天 30 美元。Claude Opus 4.7 的费用是每百万输入 token 5 美元,每百万输出 token 25 美元。一百万 token 约等于 5 万行代码,假设你使用所谓的最先进模型,你肯定至少会跑完一百万 token,如果你不太清楚该用哪个模型做特定任务,这个数字会急剧上升。

让我们再玩玩这个 30 美元的数字。

对于 10 人开发团队,一年就是 75600 美元,而且我们只算工作日。

如果你有三个月提高到平均每个工作日 50 美元,就涨到 88200 美元

如果你加一个月超过 100 美元,一年就要花 102900 美元。

如果你每天花 300 美元,10 个人一年就要花 756000 美元。

虽然这在资金充足的创业公司或 Meta 这样的香蕉共和国的备用金思维里可能可行,但任何真正在意成本的企业都很难证明在一项"提高生产力"的服务上额外花费五位数或六位数是合理的,而这种提高似乎没人能衡量。

现在,我认为大多数公司分为三类:

Spotify 或 Uber 这样大型组织里的企业部署,有痴迷 AI 的 CEO,允许预算不受控制。我也会说资金充足的大型创业公司也是这种情况。

我也会说资金充足的大型创业公司也是这种情况。

使用补贴的"Teams"订阅的小型创业公司。

付月费访问 Claude 或其他 AI 订阅的个人用户。

大型组织仍然可以说他们在为软件工程师烧掉数百万美元的 AI token,理由是"最优秀的工程师"不写任何代码这一可疑好处。

只需要一次糟糕的财报电话会议就能改变这种叙事。在某个时刻,投资者——即使是那些一直在吹大 AI 泡沫的脑残蠢货——也会开始质疑不断攀升的研发成本(AI token 消耗通常隐藏在这里),当公司的收入增长跟不上时。这很可能导致更多裁员来控制成本,就像 Meta 那样,然后在有人问"这些东西真的帮我们更快更好地完成工作了吗?"时最终收缩。

我还认为,在六个月内,那些在 AI token 上烧掉 10%或更多人力成本的创业公司,很难说服投资者这样做是必要的。

一旦所有人都切换到基于 token 的计费,我不确定我们还会看到那么多关于生成式 AI 的炒作。

AI 数据中心和算力的经济学不合理

人们谈论 AI 数据中心的方式完全脱离现实,我认为人们没有意识到整个时代变得多么荒谬。

AI 数据中心建设成本高、运营成本高,实际收入却很少

根据 TD Cowen 的 Jerome Darling,关键 IT(GPU 和相关硬件)成本约为 3000 万美元,每兆瓦数据中心容量成本 1400 万美元。数据中心似乎需要一到三年不等的时间,这还是假设有电力供应的情况下。

到 2028 年底据称要建成的 114GW 数据中心中,只有 15.2GW 在以任何方式、形态或形式施工。而"施工中"可能只意味着"地上有个坑"。它不意味着——也不应该意味着——该设施将提供的容量会很快可用。

让我们从简单开始:每当你想到"100MW",就想"44 亿美元",其中很大一部分用于 NVIDIA GPU。

因此,每个 AI 数据中心一开始就亏损数百万美元,即使采用六年折旧计划,也要多年才能还清......而且随着 NVIDIA 的年度升级周期,一旦你完成第一个客户合同,那些 GPU 不太可能赚那么多钱。

还不清楚 AI 算力的客户群是否存在于 OpenAI 和 Anthropic 之外,这两家的需求占在建 AI 数据中心的 50%,如果他们中任何一家没钱付款,就会造成巨大的系统性弱点。

无论如何,也不清楚这些数据中心收取什么样的持续费率。虽然现货价格可能在每小时 4.50 美元左右/B200 GPU,但长期合同价格通常低得多,一位创始人(据 The Information)说他们为一年期承诺支付约每 GPU 每小时 3.70 美元。

需要明确的是,我们必须区分现货成本——在别人服务器上随机启动 GPU 的成本——和合约算力,后者占数据中心资本支出的大部分。大多数数据中心建设时打算有一两个大客户,这意味着这些客户可能谈判到更便宜的混合费率。

因此,许多数据中心的收费远低于每小时 3.70 美元,因为他们按每兆瓦(或千瓦)价格计费。

这就是经济学开始崩溃的地方。

100MW 数据中心的崩溃经济学——每小时 2.55 美元,100%入驻率下毛利率 16%,因债务而无利可图

这是 100 兆瓦数据中心的起始成本。一个 100MW 的数据中心可能只有 85MW 的实际可计费容量,根据与熟悉超大规模计费的消息源讨论,他们预计每兆瓦收入约 1250 万美元,或年收入约 10.63 亿美元。

现在,我应该明确,你知道的大多数数据中心公司实际上并不建造它们,而是把这项工作留给 Applied Digital 这样的公司,它们也被称为"托管合作伙伴"。例如,CoreWeave 向 Applied Digital 支付托管费用以使用其北达科他州的数据中心。CoreWeave 负责数据中心内的所有 GPU 和其他技术。

为了解释经济不匹配,我将使用一个理论示例,一个租给理论 AI 算力公司的数据中心。

该数据中心的 GPU 很可能是 NVIDIA 的 Blackwell 芯片。更有可能的是,该数据中心使用 8 个 B200 GPU 的 pod,零售价约 45 万美元一个,或每个 GPU 56250 美元。基于 85MW 的关键 IT 负载,每兆瓦的全部资本支出约为 36.78,或总 IT 资本支出约 31.26 亿美元,或约 26.7 亿美元的 GPU。

假设这个数据中心在北达科他州 Ellendale,这意味着工业电价约为每千瓦时 6.31 美分,每年电费约 5540 万美元。根据与消息源的讨论,我估计维护、人员、电源更换等持续成本约占收入的 12%,或每年约 1.28 亿美元,使我们达到 1.834 亿美元的成本。

等等,抱歉。你还得根据关键 IT 支付托管费,根据 Brightlio,该费用通常约为每千瓦每月 180-200 美元,取决于部署的规模和位置,虽然我读到过低至 130 美元,这是我采用的数字,或每年约 1.33 亿美元。这使我们达到 3.164 亿美元。

嗯,这仍然少于 10.6 亿美元,所以我们还好,对吧?

错!你有 31.26 亿美元的 IT 设备要折旧,六年折旧下来每年约 5.21 亿美元。那就是每年 8.374 亿美元,给你留下约 1.686 亿美元的年利润,或约 16.7%的毛利率......

......如果你一直保持 100%的入驻率!你看,数据中心可能需要一两个月来安装这些 GPU 并让客户入驻,在此期间你的收入为零,损失却大得多,因为你一直在支付托管、电力和运营成本,尽管费率低得多(我为 10%的电力和 15%的托管/运营成本建模),这意味着你每天损失约 327 万美元。

为了这个例子,我们假设你需要额外一个月才能让这东西运行起来,这意味着你已经支付了约 1.02 亿美元,再也拿不回来了,使我们包括折旧在内的年度总成本达到 9.394 亿美元,或 6.6%的毛利率。

等等,该死,你没用债务买这些 GPU 吧?你用了?有多糟?哦天哪——你得到了一笔六年期的资产支持贷款,贷款价值比为 80%,意味着你以 6%的利率借了 28 亿美元。

你的银行出于永恒的慷慨,给了你一笔交易——12 个月的宽限期,你只付利息......约 1.68 亿美元,这使我们第一年的总成本(为公平起见不包括延迟的一个月)达到约 10.05 亿美元......收入 10.6 亿美元。

那是 5.19%的毛利率,而你甚至还没开始还本金。当那发生时,你每月要还 5410 万美元的贷款,接下来五年总计每年约 6.49 亿美元,约 14.8 亿美元,或约负 40%的毛利率。

我必须明确,这是如果你有 100%的利用率,而且租户每次都按时付款。

Stargate Abilene 是场灾难——每 GPU 每小时 2.94 美元,年收入 100 亿美元,进度落后数年,只有一个每年亏损数十亿美元的租户

让我们谈谈应该是数据中心历史上最具经济可行性的单一项目——一个由 Oracle 为世界上最大的 AI 公司建造的大型园区,Oracle 是一个拥有数十年历史的近超大规模企业,有向企业和政府销售昂贵数据库和业务管理软件的历史。

哈,我当然是在开玩笑,这地方就是个该死的噩梦。

Stargate Abilene,一个八栋建筑、1.2GW 的数据中心园区,约 824MW 的关键 IT,首次宣布于 2024 年 7 月。截至 2026 年 4 月 27 日,只有两栋建筑运营并产生收入,第三栋几乎没有任何 IT 设备。我估计 Stargate Abilene 的总成本约为 528 亿美元。

根据我自己的报道,Oracle 预计从 Stargate Abilene 获得约 100 亿美元的年收入,我估计从它为一个客户建造的 7.1GW 数据中心容量中获得约 750 亿美元的总收入:OpenAI。正如我还报道的,Oracle 在 2024 年估计 Abilene 每年至少要支付 21.4 亿美元的托管和电费,支付给土地开发商 Crusoe。

我还应该补充,看起来 Oracle 正在支付 Abilene 的所有建设成本。

根据我的计算和报道,我估计 Abilene 一旦全面运营,粗略毛利率约为 37.47%:

我必须明确,37.47%的毛利率可能太高了,因为我不知道 Oracle 真实的保险或人员成本的准确数字,只有基于本刊查看的文档的估计。我还应该明确,Oracle 正在把整个该死的未来押在像 Stargate Abilene 这样的项目上,预先产生数十亿美元的成本,这项业务即使 OpenAI 及时支付每一笔款项,也需要多年才能盈利。

遗憾的是,我无法确定 Abilene 有多少是靠债务支付的。我只知道 Oracle 在 2025 年 9 月通过发行不同规模的债券筹集了约 180 亿美元,期限从 7 年到 40 年不等,而且在最近一个季度的财报中出现了 247 亿美元的负现金流。

我确实知道的是,Oracle 与开发商 Crusoe 签订了一份为期 15 年的租约,而且 Oracle 的未来严重依赖 OpenAI 持续付款的能力,而这又取决于 Oracle 能否完成 Stargate Abilene 项目。

我还需要明确,每年 38.5 亿美元的利润只有在 OpenAI 按时付款、以最快速度入驻 Abilene 且一切按计划进行的情况下才可能实现。

如果 OpenAI 无法在未来 4 年内筹集 8520 亿美元的收入、融资和债务,Stargate 数据中心项目将拖垮 Oracle

遗憾的是,完全相反的情况发生了:

根据 DatacenterDynamics 的报道,首批 200MW 的电力本应在"2025 年"投入使用。随着时间推移,入驻本应在 2025 年上半年开始,"有潜力在 2025 年达到 1GW",在 2026 年中期完成全部 1.2GW 容量,在 2026 年中期通电,在 2026 年底前部署 64,000 个 GPU。截至 2025 年 9 月 30 日,"两栋建筑已上线"。截至 2025 年 12 月 12 日,Oracle 联席 CEO Clay Magouyurk 表示 Abilene"按计划推进","已交付超过 96,000 个 NVIDIA Grace Blackwell GB200",也就是两栋建筑的 GPU 数量。四个月后的 2026 年 4 月 22 日,Oracle 在推特上表示"......在 Abilene,200MW 已经投入运营,八栋建筑园区的交付仍按计划进行。"目前不清楚这是 200MW 的关键 IT 容量还是 Abilene 园区的总可用电力。无论如何,这只够支持两栋建筑,这意味着 Oracle 绝对不是"按计划推进"。

这是一个巨大的问题。OpenAI 只能为实际存在的算力付费,而只有 206MW 的关键 IT 容量真正产生收入,第三栋建筑至少还需要一个月(如果不是一个季度的话)才能投入使用。

然而,整个 Stargate 数据中心项目还有一个更大、更根本的问题——只有在 OpenAI 实现其荒谬的、卡通般的预测时,这一切才有意义。

正如我在周五讨论的:

我再重复一遍这些数字:正在建设的 7.1GW Stargate 数据中心完工后将产生约 750 亿美元的年收入,总成本超过 3400 亿美元。Oracle 的自由现金流为负 247 亿美元,其他业务线正在停滞,这使得其负利润到低利润的云业务成为唯一的增长引擎。为了真正能够支付其算力合同——包括与亚马逊、微软、CoreWeave、谷歌、Cerberas 以及 Oracle 的合同——OpenAI 必须在四年内筹集或赚取 8520 亿美元的收入和/或融资,这需要其业务每年增长超过 250%,到 2030 年底实际增长 10 倍,届时它必须找到一种方式实现现金流为正,这些数字才有意义。明确一点,OpenAI 的预测是在未来四年内赚取 6730 亿美元,并为此烧掉 2180 亿美元。这是一项极其无利可图的业务,即使它能盈利,也必须赚取比现在多得多的钱才能持续向 Oracle 付款。

我计算出 750 亿美元这个数字,是假设 Vera Rubin GPU 在剩余的 4.64GW 关键 IT 容量上每兆瓦算力获得约 1400 万美元(这个数字我已经与熟悉数据中心行业的消息源确认过),这是我预计构成剩余 Stargate 数据中心的容量。

OpenAI 的数字直接来自 The Information 报道的 OpenAI 预测烧钱率和收入的泄露信息,该公司预计到 2030 年底将产生 6730 亿美元的收入,并为此烧掉 8520 亿美元:

我必须明确,任何记者重复这些数字而不指出它们有多愚蠢的人都应该感到有点羞愧。根据我周五的付费内容:

换句话说,OpenAI 预测两年后的收入将超过台积电,三年后的年收入几乎与 Meta 相当,到 2030 年底的年收入将与微软相当(过去 12 个月约 3000 亿美元)。

如果 OpenAI 无法为这些算力付费,Oracle 就会倒闭,因为它仅为建设 Stargate 的数据中心就承担了约 1150 亿美元的债务,还需要另外 1500 亿美元来完成它们:

Oracle 是一家目前年收入约 640 亿美元的公司,上个季度的自由现金流为负 247 亿美元。它在 2025 年 9 月发行了 180 亿美元的债券,在 2026 年 2 月发行了 250 亿美元的债券,在 3 月的某个时候进行了 200 亿美元的市场配售,尽管被称为"已完成"数月,但似乎只是最近才完成了 380 亿美元的 Stargate 威斯康星州和 Shackelford 项目融资。我还将与 Stargate 密歇根州相关的 140 亿美元数据中心债务包括在内。无论如何,Oracle 资本不足以完成 Stargate Abilene。它至少还需要 1500 亿美元才能完成这项工作,这还是假设其他合作伙伴承担约 300 亿美元成本的情况下。老实说,可能还要更多。

我真的需要明确,Oracle 没有其他途径在没有 OpenAI 的情况下实现这笔收入,而且这些项目完全是使用数据中心本身的预计现金流来融资和支付的。

我甚至不是唯一担心这一点的人,OpenAI 的 Sarah Friar 在公司未能达到用户和收入目标后也表达了类似的担忧,据《华尔街日报》报道:

OpenAI 最近未能达到其新用户和收入目标,这些挫折让一些公司领导层担心它是否能够支持其在数据中心上的大规模支出。首席财务官 Sarah Friar 告诉其他公司领导层,她担心如果收入增长不够快,公司可能无法支付未来的计算合同,据知情人士透露。董事会成员最近几个月也更仔细地审查了公司的数据中心交易,并质疑首席执行官 Sam Altman 在业务放缓的情况下仍努力获取更多算力的做法,知情人士说。

如果这还不让你担心,或许这会:

她向高管和董事会成员强调了 OpenAI 需要改善其内部控制,警告公司尚未准备好满足上市公司所需的严格报告标准。一些知情人士说,Altman 倾向于更激进的 IPO 时间表。

这听起来确实像一家能够在十年末赚取 8520 亿美元的公司!

Anthropic 和 OpenAI 一样糟糕,承诺从谷歌和亚马逊获取多达 10GW(年收入超过 1000 亿美元)的算力

虽然我经常批评 OpenAI 的荒谬承诺,但 Anthropic 也不遑多让,承诺从谷歌和亚马逊各获取"多达"5GW 的容量,根据容量规模,我估计这笔交易包括约 1000 亿美元的实际算力承诺。

现在,我应该补充的是,谷歌和亚马逊比 Oracle 更精明、更不绝望,这意味着如果 Anthropic 最终资金耗尽,它们可以承受这一打击。交易中的"多达"部分给了它们一些 Oracle 根本没有的急需的回旋余地。

尽管如此,要真正履行其承诺,Anthropic 到 2030 年底每年必须同意在算力上花费 250 亿到 1000 亿美元。

Anthropic 的首席财务官在 3 月表示,该公司在整个存续期间创造了 50 亿美元的收入。

需要 1568 亿美元的 AI 年度算力收入来支持正在建设的 15.2GW AI 数据中心,需要 1.18 万亿美元来支持所有宣布的 114GW

围绕 Jensen Huang 声称定期出货的数千亿美元 GPU 的近乎色情的兴奋,掩盖了一个有问题的疑问:卖给谁,Jensen?

如果我们假设正在建设的 15.2GW 数据中心容量(预计 2028 年底前完工)的 PUE 约为 1.35,那么我们就有大约 11.2GW 的关键 IT 容量。按每兆瓦 1400 万美元计算,要使这些数据中心物有所值,大约需要 1568 亿美元的年度 GPU 租赁收入。

当你计算到 2028 年底理论上上线的 114GW 容量时,这个数字攀升至 1.18 万亿美元的年收入。

为了给你一些背景,CoreWeave——拥有 Meta、OpenAI、谷歌(为 OpenAI)、微软(为 OpenAI)、Anthropic 和 NVIDIA 作为客户的最大新云服务商——创造了约 51 亿美元的收入,并预计 2026 年将创造 120 亿到 130 亿美元。

究竟谁是所有这些算力的客户,当所有容量建成时,他们购买的可能性有多大?虽然许多不同的数据中心声称其存在的前几年有租户,但这些租户只能在数据中心完工后才开始付费,如果是 AI 初创公司,我认为合理的问题是:当它建成时,它们是否还存在。

记住:AI 算力的客户主要是试图将资本支出移出资产负债表的超大规模云服务商或无利可图的 AI 初创公司。Anthropic 和 OpenAI 都打算在未来几年烧掉数百亿美元,而且它们都没有盈利途径。

这意味着 AI 算力收入的很大一部分——如果不是大部分——依赖于持续的风险投资和债务流入,而这两者只有在投资者仍然相信生成式 AI 将是世界上最大、最巨大的事物时才可能实现。

这究竟如何运作?谁在为这些数据中心容量付费?这是为谁准备的?实际需求在哪里?

如果这种需求存在,客户他妈的怎么付款?

生成式 AI 无利可图且不可持续,而且只会越来越贵

尽管有多个故事说它们将在 2028 年或 2029 年实现盈利,但没有人能向我解释 OpenAI 或 Anthropic 实际上如何实现盈利,特别是考虑到它们的利润率都比预期更差,即使这些利润率剔除了数十亿美元的训练成本。

我他妈的提这个问题已经好几年了。每次我们得到关于 Anthropic 或 OpenAI 的新更新时,我们都会听说它们又比预期多损失了数十亿美元,利润率正在下降,成本正在飙升,尽管承诺会发生完全相反的情况,但一切都更贵了。

即使是 Cursor,一家曾短暂(在被马斯克的 SpaceX 伪收购之前)声称拥有正毛利率的公司,截至 1 月实际上有负 23%的毛利率,如果你包括非付费用户的成本,则为负 31%,如果你真的关心你的会计,你他妈的应该包括这些。神秘的是,报道声称 Cursor 的利润率"最近转为正数",但神奇地不知道有多少,或者这是如何发生的,或者除了一个可能帮助公司被出售的细节之外的任何其他细节。

我也不明白这些 AI 数据中心如何真正有意义,即使它们在前几年有客户付费。经济学是为完美而构建的,容错率为零。它们必须有一致的 100%利用率和入驻率,否则它们最终会烧掉数百万美元,并且无法削减由科技行业最昂贵错误造成的长达数年的折旧墙。

即使它们以某种方式成功,这些也是利润率平庸的可怜生意——最多 70%,假设持续付款、入驻和六年他妈的折旧才能真正实现收支平衡,考虑到年度升级周期使整个事情在你完成支付时几乎过时,这可能很困难。

而这还没有考虑到大多数客户都是无利可图、不可持续的初创公司。

我真的不知道这一切如何解决。

LLM 是一场骗局,客户被欺骗了

我意识到这似乎有点过分,但我真诚地相信,基于订阅的 AI 服务是一种相当于欺诈的欺骗行为,因为它们歪曲了核心单位经济学,从而歪曲了大型语言模型的可能性。通过以月费率向用户出售产品并基于其可用性创建习惯,Anthropic 和 OpenAI 等公司以这样的方式歪曲了它们的业务,以至于它们的大多数用户正在与产品互动,并基于在当前形式下不可持续且无法维护的产品构建工作流程。

我需要非常明确,Anthropic 提供的产品——由于最近的速率限制变化——与你到处读到的产品有很大不同(而且差得多)。Anthropic 有意识地故意营销一个它知道会在三个月内消失的产品。Dario Amodei 不在乎,只要媒体继续报道他今天编造的数十亿年化收入或他发布的任何旨在摧毁某家已经看到增长放缓的倒霉公共 SaaS 公司的新产品。

媒体成员,我怀着充分的尊重说这句话:Anthropic 正在虐待其客户,它这样做是因为它相信它可以逃脱惩罚。这家公司不尊重你,事实上对你持有相当程度的蔑视,这就是为什么它不费心快速修复其服务或以任何连贯的方式解释它们为什么损坏。

这就是为什么 Anthropic 他妈的谎称 Claude Mythos 太强大而无法发布(实际上是容量问题),而实际上它只是另一个他妈的大型语言模型空头支票——因为它认为你会购买它出售的任何东西,而且它已经准确地弄清楚了如何包装它,给你足够合理的"证据",快速浏览系统卡将让你和你的编辑相信你所说的任何内容。

他们也知道你会急于报道它,而不是等待看看实际专家怎么说。

AI 就是一场骗局,骗局的运作方式如下。AI 被以最快速度推到我们面前,以效率最低但最易接触的形式呈现,即便这种形式永远不可能产生任何可持续的商业模式。媒体被催促着立刻宣称"这就是未来",让所有人都认同这是当下的大事,尽可能多地使用它。更关键的是,以订阅制的形式让人们体验它,这样人们永远不会问提供服务的成本是多少。

叙事早已被打包好了。因为很少有讨论大语言模型的人真正了解其实际成本,他们很容易含糊地说"这就像 Uber 一样",因为那是一家亏了很多钱但没倒闭的公司。这样说比说"等等,你是说 OpenAI 今年将亏损 50 亿美元?"要容易得多。

这样想:作为记者、投资者、高管或普通的 LinkedIn 发言者,你可能零零散散读到过每百万输入 tokens 5 美元、每百万输出 tokens 25 美元的数字,但你从未真正体验过亏钱的速度,而这对真正理解这个产品至关重要。Anthropic 和 OpenAI 故意混淆了这种体验,创建了预计在 2026 年烧掉数百亿美元、到 2030 年烧掉数千亿美元的业务,这一切都因为大多数人基于订阅体验来评判生成式 AI。

大语言模型是赌场,你一直在用庄家的钱赌博,同时鼓励人们押注自己的钱,赌能否从特定模型中获得一单位的工作成果。

这是故意的。他们从不想让你思考成本,因为一旦你真正开始思考成本,整件事就显得有点疯狂。我真诚相信基于大语言模型的订阅服务将完全消失,至少在任何生成代码的产品规模上是这样。在此过程中,Amodei 和 Altman 将收尾他们的骗局,或者至少他们自己这么认为。

问题是这些人现在签了太多协议,无法全身而退。

OpenAI 的 CFO 现在已多次表示,她不认为 OpenAI 已为 IPO 做好准备,并对其增长和持续履约能力有重大担忧。重复之前的引述:

据知情人士透露,首席财务官 Sarah Friar 曾告诉其他公司领导层,她担心如果收入增长不够快,公司可能无法支付未来的计算合同费用。

这是一个闪烁的红色警报,在一个理性的市场中会让 Oracle 的股价陷入螺旋式下跌,因为 OpenAI 攀升至年收入超 2800 亿美元对 Oracle 不耗尽资金至关重要。在理性的媒体环境中,这会在每个群聊和 Slack 频道引发担忧浪潮,质疑 OpenAI 是否真能撑下去。

这是公司开始走向衰亡前发生的事。OpenAI 的增长恰恰在需要加速时放缓了。它需要在 2030 年前将当前业务规模扩大 10 倍才能履行义务。OpenAI 的 CFO——最清楚情况的人——正在说她担心如果收入不增长,OpenAI 连算力合同都付不起。这是一个巨大的、闪烁的警示灯!这不是演习!

但真正让我担心的是《华尔街日报》评论说,Friar 认为 OpenAI"尚未准备好满足上市公司所需的严格报告标准"。

这他妈是什么意思?抱歉?这家公司据称已融资 1220 亿美元,据称价值 8520 亿美元,预计到 2030 年底将烧掉 8520 亿美元。它的账目不清楚吗?OpenAI 无法满足什么"严格报告标准"?

如果不是因为这家公司去年占了所有风险投资资金的约 20%,而且我走到哪都得听 Altman、Brockman 和 OpenAI 其他人对普通人应该做什么的无休止空谈,同时他们优雅地发布垃圾软件、花别人的钱,我一般不会这么刨根问底。

鉴于 Anthropic 和 OpenAI 消耗的关注度,这两家公司作为产品和业务都应该完美无缺。但两者都通过不同程度的经济和效能欺骗来销售,混淆真相,好让他们的 CEO 能积累金钱、权力和关注。这是对优质软件和品味的侮辱——史上最昂贵、最不可靠的应用,它们的错误被原谅,平庸被庆祝,基础设施被誉为资本的惰性之神。

生成式 AI 是一种侮辱。它不可靠,经济账算不过来,产出无法证明其存在的正当性,而骗局的实施者是无聊、笨拙、贪婪的人,与社会和任何可能反对他们的人脱节。它需要窃取所有人的艺术,破坏环境,提高我们的电费,持续威胁经济毁灭,无休止地喧嚷"一切都因为 AI 变糟了",这一切只是为了推广只有愿意忽视基本财务或常识的人才能为其辩护的软件。

这一切都太昂贵,而且太他妈无聊了。它无聊得令人生厌。它让人主动感到烦躁。每个告诉你自己多么频繁使用 AI 的故事听起来都像是他们陷入了虐待关系和/或加入了邪教,回荡着微妙的绝望,仿佛在说"你真的需要和我一起做这件事,因为它太好了,而我似乎从这个产品中得不到任何快乐,这只是它有多高效的标志。"AI 能做的事情没有任何轻松或快乐的成分。大语言模型没有任何古怪或异想天开之处,每次互动都感觉空洞。

那些拼命寻找它正变得有意识或"更强大"的线索的人,只是在寻求自我验证——他们想成为第一个发现某事的人,因为得出别人的结论就是他们谋生的方式。

成为"第一个"——可以说在"前沿"——是人们在内心找不到东西时渴望的,这正是骗子渴望的燃料,因为大语言模型不断嗡嗡作响,给人一种即将做出新事物的感觉,尽管它们在数学上被限制为重复其他行动。

这是一个深深悲哀的时代。那些如此积极地共同努力支撑这个行业的人,只是推迟了它不可避免的衰落。让我感到恐惧的是,我们的市场和部分经济被普遍持有但完全未经证实的假设所支撑,即大语言模型会以某种方式变得更便宜,AI 初创公司会神奇地变得盈利,提供 AI 算力将永久盈利,以至于需要在 2030 年前将当前供应增加十倍。

人们为了捍卫 AI 行业而贬低自己,因为这就是该行业对其信徒的要求。要成为"AI 专家"需要你主动忽视历史上任何行业最糟糕的经济状况,不断为产品明显而刺眼的问题辩解,并积极说服其他人也这样做。OpenAI 和 Anthropic 不提供如何盈利的清晰解释,因为他们知道支持者永远不会要求——因为完全"相信 AI"的唯一方法就是主动戴上眼罩。

我理解。如果你承认 OpenAI 和/或 Anthropic 最终会崩溃,这一切似乎有点疯狂。我真诚地请求你认真考虑这两家公司中的一家或两家会耗尽资金。

我真的很担心,而且媒体和更广泛社会普遍缺乏关注让我更加担心。

如果我必须想象,假设是我只是危言耸听,"需求绝对会在那里。"

你最好希望自己是对的。

至少为了 Larry Ellison 着想。Ellison 已经质押了 3.46 亿股 Oracle 股票——约 615 亿美元——"以担保某些个人债务,包括各种信用额度",意味着"许多大额、漂亮的以 Oracle 股票为抵押的贷款。"IFR 在 9 月份(当时 Oracle 股价高得多)估计,这可能让他以(他们说的"保守的")20%贷款价值比获得多达 214 亿美元的债务,这还是假设银行不是特别慷慨。

如果 OpenAI 在 2030 年底前无法筹集到 8520 亿美元的收入和资金,它将无法支付 Stargate 的费用。这将扼杀 Oracle 股票的价值,导致一系列追加保证金通知,导致 Ellison 不得不出售股票,导致进一步的追加保证金通知。无论存在什么救助,都救不了 Larry 的资产。

我要说的是,Ellison 的未来取决于 Sam Altman 在 4 年内筹集资金并创造 8520 亿美元收入的能力。

祝你好运,Larry!你会需要的。

Letture associate

Trading

Spot
Futures

Articoli Popolari

Cosa è GROK AI

Grok AI: Rivoluzionare la Tecnologia Conversazionale nell'Era Web3 Introduzione Nel panorama in rapida evoluzione dell'intelligenza artificiale, Grok AI si distingue come un progetto notevole che collega i domini della tecnologia avanzata e dell'interazione con l'utente. Sviluppato da xAI, un'azienda guidata dal rinomato imprenditore Elon Musk, Grok AI cerca di ridefinire il modo in cui interagiamo con l'intelligenza artificiale. Mentre il movimento Web3 continua a prosperare, Grok AI mira a sfruttare il potere dell'IA conversazionale per rispondere a query complesse, offrendo agli utenti un'esperienza che è non solo informativa ma anche divertente. Cos'è Grok AI? Grok AI è un sofisticato chatbot di intelligenza artificiale conversazionale progettato per interagire dinamicamente con gli utenti. A differenza di molti sistemi di intelligenza artificiale tradizionali, Grok AI abbraccia un'ampia gamma di domande, comprese quelle tipicamente considerate inappropriate o al di fuori delle risposte standard. Gli obiettivi principali del progetto includono: Ragionamento Affidabile: Grok AI enfatizza il ragionamento di buon senso per fornire risposte logiche basate sulla comprensione contestuale. Supervisione Scalabile: L'integrazione dell'assistenza degli strumenti garantisce che le interazioni degli utenti siano sia monitorate che ottimizzate per la qualità. Verifica Formale: La sicurezza è fondamentale; Grok AI incorpora metodi di verifica formale per migliorare l'affidabilità delle sue uscite. Comprensione del Lungo Contesto: Il modello di IA eccelle nel trattenere e richiamare una vasta storia di conversazione, facilitando discussioni significative e consapevoli del contesto. Robustezza Adversariale: Concentrandosi sul miglioramento delle sue difese contro input manipolati o malevoli, Grok AI mira a mantenere l'integrità delle interazioni degli utenti. In sostanza, Grok AI non è solo un dispositivo di recupero informazioni; è un partner conversazionale immersivo che incoraggia un dialogo dinamico. Creatore di Grok AI Il cervello dietro Grok AI non è altri che Elon Musk, un individuo sinonimo di innovazione in vari campi, tra cui automotive, viaggi spaziali e tecnologia. Sotto l'egida di xAI, un'azienda focalizzata sull'avanzamento della tecnologia AI in modi benefici, la visione di Musk mira a rimodellare la comprensione delle interazioni con l'IA. La leadership e l'etica fondamentale sono profondamente influenzate dall'impegno di Musk nel superare i confini tecnologici. Investitori di Grok AI Sebbene i dettagli specifici riguardanti gli investitori che sostengono Grok AI rimangano limitati, è pubblicamente riconosciuto che xAI, l'incubatore del progetto, è fondato e supportato principalmente dallo stesso Elon Musk. Le precedenti imprese e partecipazioni di Musk forniscono un robusto sostegno, rafforzando ulteriormente la credibilità e il potenziale di crescita di Grok AI. Tuttavia, al momento, le informazioni riguardanti ulteriori fondazioni di investimento o organizzazioni che supportano Grok AI non sono facilmente accessibili, segnando un'area per potenziali esplorazioni future. Come Funziona Grok AI? Le meccaniche operative di Grok AI sono innovative quanto il suo framework concettuale. Il progetto integra diverse tecnologie all'avanguardia che facilitano le sue funzionalità uniche: Infrastruttura Robusta: Grok AI è costruito utilizzando Kubernetes per l'orchestrazione dei container, Rust per prestazioni e sicurezza, e JAX per il calcolo numerico ad alte prestazioni. Questo trio garantisce che il chatbot operi in modo efficiente, si scaldi efficacemente e serva gli utenti prontamente. Accesso alla Conoscenza in Tempo Reale: Una delle caratteristiche distintive di Grok AI è la sua capacità di attingere a dati in tempo reale attraverso la piattaforma X—precedentemente nota come Twitter. Questa capacità consente all'IA di accedere alle informazioni più recenti, permettendole di fornire risposte e raccomandazioni tempestive che altri modelli di IA potrebbero perdere. Due Modalità di Interazione: Grok AI offre agli utenti la scelta tra “Modalità Divertente” e “Modalità Normale”. La Modalità Divertente consente uno stile di interazione più giocoso e umoristico, mentre la Modalità Normale si concentra sulla fornitura di risposte precise e accurate. Questa versatilità garantisce un'esperienza su misura che soddisfa varie preferenze degli utenti. In sostanza, Grok AI sposa prestazioni con coinvolgimento, creando un'esperienza che è sia arricchente che divertente. Cronologia di Grok AI Il viaggio di Grok AI è segnato da traguardi fondamentali che riflettono le sue fasi di sviluppo e distribuzione: Sviluppo Iniziale: La fase fondamentale di Grok AI si è svolta in circa due mesi, durante i quali sono stati condotti l'addestramento iniziale e il perfezionamento del modello. Rilascio Beta di Grok-2: In un significativo avanzamento, è stata annunciata la beta di Grok-2. Questo rilascio ha introdotto due versioni del chatbot—Grok-2 e Grok-2 mini—ognuna dotata delle capacità per chattare, programmare e ragionare. Accesso Pubblico: Dopo lo sviluppo beta, Grok AI è diventato disponibile per gli utenti della piattaforma X. Coloro che hanno account verificati tramite un numero di telefono e attivi per almeno sette giorni possono accedere a una versione limitata, rendendo la tecnologia disponibile a un pubblico più ampio. Questa cronologia racchiude la crescita sistematica di Grok AI dall'inizio all'impegno pubblico, enfatizzando il suo impegno per il miglioramento continuo e l'interazione con gli utenti. Caratteristiche Chiave di Grok AI Grok AI comprende diverse caratteristiche chiave che contribuiscono alla sua identità innovativa: Integrazione della Conoscenza in Tempo Reale: L'accesso a informazioni attuali e rilevanti differenzia Grok AI da molti modelli statici, consentendo un'esperienza utente coinvolgente e accurata. Stili di Interazione Versatili: Offrendo modalità di interazione distinte, Grok AI soddisfa varie preferenze degli utenti, invitando alla creatività e alla personalizzazione nella conversazione con l'IA. Avanzata Struttura Tecnologica: L'utilizzo di Kubernetes, Rust e JAX fornisce al progetto un solido framework per garantire affidabilità e prestazioni ottimali. Considerazione del Discorso Etico: L'inclusione di una funzione di generazione di immagini mette in mostra lo spirito innovativo del progetto. Tuttavia, solleva anche considerazioni etiche riguardanti il copyright e la rappresentazione rispettosa di figure riconoscibili—una discussione in corso all'interno della comunità AI. Conclusione Come entità pionieristica nel campo dell'IA conversazionale, Grok AI incarna il potenziale per esperienze utente trasformative nell'era digitale. Sviluppato da xAI e guidato dall'approccio visionario di Elon Musk, Grok AI integra conoscenze in tempo reale con capacità di interazione avanzate. Si sforza di spingere i confini di ciò che l'intelligenza artificiale può realizzare, mantenendo un focus su considerazioni etiche e sicurezza degli utenti. Grok AI non solo incarna il progresso tecnologico, ma rappresenta anche un nuovo paradigma conversazionale nel panorama Web3, promettendo di coinvolgere gli utenti con sia conoscenze esperte che interazioni giocose. Man mano che il progetto continua a evolversi, si erge come testimonianza di ciò che l'incrocio tra tecnologia, creatività e interazione simile a quella umana può realizzare.

364 Totale visualizzazioniPubblicato il 2024.12.26Aggiornato il 2024.12.26

Cosa è GROK AI

Cosa è ERC AI

Euruka Tech: Una Panoramica di $erc ai e delle sue Ambizioni in Web3 Introduzione Nel panorama in rapida evoluzione della tecnologia blockchain e delle applicazioni decentralizzate, nuovi progetti emergono frequentemente, ciascuno con obiettivi e metodologie uniche. Uno di questi progetti è Euruka Tech, che opera nel vasto dominio delle criptovalute e del Web3. L'obiettivo principale di Euruka Tech, in particolare del suo token $erc ai, è presentare soluzioni innovative progettate per sfruttare le crescenti capacità della tecnologia decentralizzata. Questo articolo si propone di fornire una panoramica completa di Euruka Tech, un'esplorazione dei suoi obiettivi, della funzionalità, dell'identità del suo creatore, dei potenziali investitori e della sua importanza nel contesto più ampio del Web3. Cos'è Euruka Tech, $erc ai? Euruka Tech è caratterizzato come un progetto che sfrutta gli strumenti e le funzionalità offerte dall'ambiente Web3, concentrandosi sull'integrazione dell'intelligenza artificiale nelle sue operazioni. Sebbene i dettagli specifici sul framework del progetto siano piuttosto sfuggenti, è progettato per migliorare l'engagement degli utenti e automatizzare i processi nello spazio crypto. Il progetto mira a creare un ecosistema decentralizzato che non solo faciliti le transazioni, ma incorpori anche funzionalità predittive attraverso l'intelligenza artificiale, da cui il nome del suo token, $erc ai. L'obiettivo è fornire una piattaforma intuitiva che faciliti interazioni più intelligenti e un'elaborazione delle transazioni più efficiente all'interno della crescente sfera del Web3. Chi è il Creatore di Euruka Tech, $erc ai? Attualmente, le informazioni riguardanti il creatore o il team fondatore di Euruka Tech rimangono non specificate e piuttosto opache. Questa assenza di dati solleva preoccupazioni, poiché la conoscenza del background del team è spesso essenziale per stabilire credibilità nel settore blockchain. Pertanto, abbiamo classificato queste informazioni come sconosciute fino a quando dettagli concreti non saranno resi disponibili nel dominio pubblico. Chi sono gli Investitori di Euruka Tech, $erc ai? Allo stesso modo, l'identificazione degli investitori o delle organizzazioni di supporto per il progetto Euruka Tech non è prontamente fornita attraverso la ricerca disponibile. Un aspetto cruciale per i potenziali stakeholder o utenti che considerano di impegnarsi con Euruka Tech è la garanzia che deriva da partnership finanziarie consolidate o dal supporto di società di investimento rispettabili. Senza divulgazioni sulle affiliazioni di investimento, è difficile trarre conclusioni complete sulla sicurezza finanziaria o sulla longevità del progetto. In linea con le informazioni trovate, anche questa sezione rimane allo stato di sconosciuto. Come funziona Euruka Tech, $erc ai? Nonostante la mancanza di specifiche tecniche dettagliate per Euruka Tech, è essenziale considerare le sue ambizioni innovative. Il progetto cerca di sfruttare la potenza computazionale dell'intelligenza artificiale per automatizzare e migliorare l'esperienza dell'utente all'interno dell'ambiente delle criptovalute. Integrando l'IA con la tecnologia blockchain, Euruka Tech mira a fornire funzionalità come operazioni automatizzate, valutazioni del rischio e interfacce utente personalizzate. L'essenza innovativa di Euruka Tech risiede nel suo obiettivo di creare una connessione fluida tra gli utenti e le vaste possibilità presentate dalle reti decentralizzate. Attraverso l'utilizzo di algoritmi di apprendimento automatico e IA, mira a ridurre le sfide degli utenti alle prime armi e semplificare le esperienze transazionali all'interno del framework Web3. Questa simbiosi tra IA e blockchain sottolinea l'importanza del token $erc ai, fungendo da ponte tra le interfacce utente tradizionali e le avanzate capacità delle tecnologie decentralizzate. Cronologia di Euruka Tech, $erc ai Sfortunatamente, a causa delle limitate informazioni disponibili riguardo a Euruka Tech, non siamo in grado di presentare una cronologia dettagliata dei principali sviluppi o traguardi nel percorso del progetto. Questa cronologia, tipicamente preziosa per tracciare l'evoluzione di un progetto e comprendere la sua traiettoria di crescita, non è attualmente disponibile. Man mano che le informazioni su eventi notevoli, partnership o aggiunte funzionali diventano evidenti, gli aggiornamenti miglioreranno sicuramente la visibilità di Euruka Tech nella sfera crypto. Chiarimento su Altri Progetti “Eureka” È importante sottolineare che più progetti e aziende condividono una nomenclatura simile con “Eureka.” La ricerca ha identificato iniziative come un agente IA della NVIDIA Research, che si concentra sull'insegnamento ai robot di compiti complessi utilizzando metodi generativi, così come Eureka Labs ed Eureka AI, che migliorano l'esperienza utente nell'istruzione e nell'analisi del servizio clienti, rispettivamente. Tuttavia, questi progetti sono distinti da Euruka Tech e non dovrebbero essere confusi con i suoi obiettivi o funzionalità. Conclusione Euruka Tech, insieme al suo token $erc ai, rappresenta un attore promettente ma attualmente oscuro nel panorama del Web3. Sebbene i dettagli sul suo creatore e sugli investitori rimangano non divulgati, l'ambizione centrale di combinare intelligenza artificiale e tecnologia blockchain si erge come un punto focale di interesse. Gli approcci unici del progetto nel promuovere l'engagement degli utenti attraverso l'automazione avanzata potrebbero distinguerlo mentre l'ecosistema Web3 progredisce. Con l'evoluzione continua del mercato crypto, gli stakeholder dovrebbero tenere d'occhio gli sviluppi riguardanti Euruka Tech, poiché lo sviluppo di innovazioni documentate, partnership o una roadmap definita potrebbe presentare opportunità significative nel prossimo futuro. Così com'è, attendiamo ulteriori approfondimenti sostanziali che potrebbero svelare il potenziale di Euruka Tech e la sua posizione nel competitivo panorama crypto.

377 Totale visualizzazioniPubblicato il 2025.01.02Aggiornato il 2025.01.02

Cosa è ERC AI

Cosa è DUOLINGO AI

DUOLINGO AI: Integrare l'apprendimento delle lingue con Web3 e innovazione AI In un'era in cui la tecnologia rimodella l'istruzione, l'integrazione dell'intelligenza artificiale (AI) e delle reti blockchain annuncia una nuova frontiera per l'apprendimento delle lingue. Entra in scena DUOLINGO AI e la sua criptovaluta associata, $DUOLINGO AI. Questo progetto aspira a fondere la potenza educativa delle principali piattaforme di apprendimento delle lingue con i benefici della tecnologia decentralizzata Web3. Questo articolo esplora gli aspetti chiave di DUOLINGO AI, esaminando i suoi obiettivi, il framework tecnologico, lo sviluppo storico e il potenziale futuro, mantenendo chiarezza tra la risorsa educativa originale e questa iniziativa indipendente di criptovaluta. Panoramica di DUOLINGO AI Alla sua base, DUOLINGO AI cerca di stabilire un ambiente decentralizzato in cui gli studenti possono guadagnare ricompense crittografiche per il raggiungimento di traguardi educativi nella competenza linguistica. Applicando smart contracts, il progetto mira ad automatizzare i processi di verifica delle competenze e le allocazioni di token, aderendo ai principi di Web3 che enfatizzano la trasparenza e la proprietà da parte degli utenti. Il modello si discosta dagli approcci tradizionali all'acquisizione linguistica, facendo forte affidamento su una struttura di governance guidata dalla comunità, che consente ai detentori di token di suggerire miglioramenti ai contenuti dei corsi e alle distribuzioni delle ricompense. Alcuni degli obiettivi notevoli di DUOLINGO AI includono: Apprendimento Gamificato: Il progetto integra traguardi blockchain e token non fungibili (NFT) per rappresentare i livelli di competenza linguistica, promuovendo la motivazione attraverso ricompense digitali coinvolgenti. Creazione di Contenuti Decentralizzati: Apre opportunità per educatori e appassionati di lingue di contribuire con i propri corsi, facilitando un modello di condivisione dei ricavi che beneficia tutti i collaboratori. Personalizzazione Guidata dall'AI: Utilizzando modelli avanzati di machine learning, DUOLINGO AI personalizza le lezioni per adattarsi ai progressi individuali, simile alle funzionalità adattive presenti nelle piattaforme consolidate. Creatori del Progetto e Governance A partire da aprile 2025, il team dietro $DUOLINGO AI rimane pseudonimo, una pratica comune nel panorama decentralizzato delle criptovalute. Questa anonimato è inteso a promuovere la crescita collettiva e il coinvolgimento degli stakeholder piuttosto che concentrarsi su sviluppatori individuali. Lo smart contract distribuito sulla blockchain di Solana annota l'indirizzo del wallet dello sviluppatore, che segna l'impegno verso la trasparenza riguardo alle transazioni, nonostante l'identità dei creatori sia sconosciuta. Secondo la sua roadmap, DUOLINGO AI mira a evolversi in un'Organizzazione Autonoma Decentralizzata (DAO). Questa struttura di governance consente ai detentori di token di votare su questioni critiche come l'implementazione di funzionalità e le allocazioni del tesoro. Questo modello si allinea con l'etica dell'empowerment della comunità presente in varie applicazioni decentralizzate, enfatizzando l'importanza del processo decisionale collettivo. Investitori e Partnership Strategiche Attualmente, non ci sono investitori istituzionali o capitalisti di rischio identificabili pubblicamente legati a $DUOLINGO AI. Invece, la liquidità del progetto proviene principalmente da scambi decentralizzati (DEX), segnando un netto contrasto con le strategie di finanziamento delle aziende tradizionali di tecnologia educativa. Questo modello di base indica un approccio guidato dalla comunità, riflettendo l'impegno del progetto verso la decentralizzazione. Nel suo whitepaper, DUOLINGO AI menziona la formazione di collaborazioni con “piattaforme educative blockchain” non specificate, mirate ad arricchire la sua offerta di corsi. Sebbene partnership specifiche non siano ancora state divulgate, questi sforzi collaborativi suggeriscono una strategia per mescolare innovazione blockchain con iniziative educative, ampliando l'accesso e il coinvolgimento degli utenti attraverso diverse vie di apprendimento. Architettura Tecnologica Integrazione AI DUOLINGO AI incorpora due componenti principali guidate dall'AI per migliorare la sua offerta educativa: Motore di Apprendimento Adattivo: Questo sofisticato motore apprende dalle interazioni degli utenti, simile ai modelli proprietari delle principali piattaforme educative. Regola dinamicamente la difficoltà delle lezioni per affrontare le sfide specifiche degli studenti, rinforzando le aree deboli attraverso esercizi mirati. Agenti Conversazionali: Utilizzando chatbot alimentati da GPT-4, DUOLINGO AI offre una piattaforma per gli utenti per impegnarsi in conversazioni simulate, promuovendo un'esperienza di apprendimento linguistico più interattiva e pratica. Infrastruttura Blockchain Costruito sulla blockchain di Solana, $DUOLINGO AI utilizza un framework tecnologico completo che include: Smart Contracts per la Verifica delle Competenze: Questa funzionalità assegna automaticamente token agli utenti che superano con successo i test di competenza, rinforzando la struttura di incentivi per risultati di apprendimento genuini. Badge NFT: Questi token digitali significano vari traguardi che gli studenti raggiungono, come completare una sezione del loro corso o padroneggiare competenze specifiche, consentendo loro di scambiare o mostrare digitalmente i loro successi. Governance DAO: I membri della comunità dotati di token possono partecipare alla governance votando su proposte chiave, facilitando una cultura partecipativa che incoraggia l'innovazione nell'offerta di corsi e nelle funzionalità della piattaforma. Cronologia Storica 2022–2023: Concettualizzazione I lavori per DUOLINGO AI iniziano con la creazione di un whitepaper, evidenziando la sinergia tra i progressi dell'AI nell'apprendimento delle lingue e il potenziale decentralizzato della tecnologia blockchain. 2024: Lancio Beta Un lancio beta limitato introduce offerte in lingue popolari, premiando i primi utenti con incentivi in token come parte della strategia di coinvolgimento della comunità del progetto. 2025: Transizione DAO Ad aprile, avviene un lancio completo della mainnet con la circolazione di token, stimolando discussioni nella comunità riguardo a possibili espansioni nelle lingue asiatiche e ad altri sviluppi dei corsi. Sfide e Direzioni Future Ostacoli Tecnici Nonostante i suoi obiettivi ambiziosi, DUOLINGO AI affronta sfide significative. La scalabilità rimane una preoccupazione costante, in particolare nel bilanciare i costi associati all'elaborazione dell'AI e nel mantenere una rete decentralizzata reattiva. Inoltre, garantire la creazione e la moderazione di contenuti di qualità in un'offerta decentralizzata presenta complessità nel mantenere standard educativi. Opportunità Strategiche Guardando al futuro, DUOLINGO AI ha il potenziale per sfruttare partnership di micro-credentialing con istituzioni accademiche, fornendo validazioni verificate dalla blockchain delle competenze linguistiche. Inoltre, l'espansione cross-chain potrebbe consentire al progetto di attingere a basi utenti più ampie e a ulteriori ecosistemi blockchain, migliorando la sua interoperabilità e portata. Conclusione DUOLINGO AI rappresenta una fusione innovativa di intelligenza artificiale e tecnologia blockchain, presentando un'alternativa focalizzata sulla comunità ai sistemi tradizionali di apprendimento delle lingue. Sebbene il suo sviluppo pseudonimo e il modello economico emergente comportino alcuni rischi, l'impegno del progetto verso l'apprendimento gamificato, l'istruzione personalizzata e la governance decentralizzata illumina un percorso per la tecnologia educativa nel regno di Web3. Man mano che l'AI continua a progredire e l'ecosistema blockchain evolve, iniziative come DUOLINGO AI potrebbero ridefinire il modo in cui gli utenti interagiscono con l'istruzione linguistica, potenziando le comunità e premiando il coinvolgimento attraverso meccanismi di apprendimento innovativi.

339 Totale visualizzazioniPubblicato il 2025.04.11Aggiornato il 2025.04.11

Cosa è DUOLINGO AI

Discussioni

Benvenuto nella Community HTX. Qui puoi rimanere informato sugli ultimi sviluppi della piattaforma e accedere ad approfondimenti esperti sul mercato. Le opinioni degli utenti sul prezzo di AI AI sono presentate come di seguito.

活动图片