《纽约客》深度调查文解读:OpenAI自己人为何认定Altman不可信?

marsbit发布于2026-04-07更新于2026-04-07

文章摘要

《纽约客》调查报道揭露,OpenAI内部多名核心成员质疑CEO山姆·阿尔特曼的诚信问题。首席科学家伊利亚·苏茨克维曾撰写70页内部文件,直指阿尔特曼存在“一贯撒谎”的行为模式,例如在未完成安全审查的情况下谎称GPT-4功能已获批准,并忽视安全流程。Anthropic创始人达里奥·阿莫代伊的200页私人笔记也显示,OpenAI在微软投资后安全承诺形同虚设,关键保障条款被架空。 报道还指出,阿尔特曼曾高调承诺将20%算力用于“超级对齐”安全研究,但实际仅分配1%-2%且使用老旧硬件,该团队最终解散。此外,CFO莎拉·弗莱尔因对公司财务风险及IPO计划存分歧而被架空,不再直接向阿尔特曼汇报。 多位内部人士形容阿尔特曼具有“双面人”特质:极度渴望取悦他人,却对欺骗后果漠不关心。随着OpenAI从非营利组织转向商业巨头,安全护栏逐一被拆除,董事会沦为阿尔特曼盟友的集合体。专家警告,若由缺乏诚信的领导者掌控可能危及人类的AGI技术,将带来巨大风险。OpenAI回应称报道基于匿名消息和选择性轶事,未直接否认指控。

原文作者:小饼,深潮 TechFlow

2023 年秋天,OpenAI 首席科学家 Ilya Sutskever 坐在电脑前,完成了一份 70 页的文件。

这份文件整理自 Slack 消息记录、HR 沟通档案和内部会议纪要,只为回答一个问题:Sam Altman,这个掌管着可能是人类历史上最危险技术的人,到底能不能被信任?

Sutskever 给出的答案,写在文件第一页的第一行,列表标题是"Sam 表现出一贯的行为模式......"

第一条:撒谎。

两年半后的今天,调查记者 Ronan Farrow和 Andrew Marantz 在《纽约客》发表了一篇超长调查报道。采访超过 100 位当事人,拿到了此前从未公开的内部备忘录,还有 Anthropic 创始人 Dario Amodei在 OpenAI 时期留下的 200 多页私人笔记。这些文件拼出来的故事,比 2023 年那场"宫斗"难看得多:OpenAI 怎样从一家为人类安全而生的非营利组织,一步步变成商业机器,几乎每一道安全护栏,都是被同一个人亲手拆掉的。

Amodei 在笔记中的结论更直白:“OpenAI 的问题就是 Sam 本人。”

OpenAI 的"原罪"设定

要理解这篇报道的分量,得先说清楚 OpenAI 这家公司有多特殊。

2015 年,Altman 和一群硅谷精英做了一件商业史上几乎没有先例的事:用一家非营利组织来开发可能是人类历史上最强大的技术。董事会的职责写得很明白,安全优先于公司的成功,甚至优先于公司的存活。说白了,如果有一天 OpenAI的 AI 变得危险了,董事会有义务亲手把这家公司关掉。

整套架构押注在一个假设上:掌管 AGI 的人,必须是一个极其诚实的人。

要是押错了呢?

报道的核心炸弹就是那份 70 页文件。Sutskever 不搞办公室政治,他是全球最顶尖的 AI 科学家之一。但到了 2023 年,他越来越确信一件事:Altman 在持续地对高管和董事会说假话。

一个具体的例子:2022年 12 月,Altman 在董事会会议上保证,即将发布的 GPT-4 的多项功能已经通过了安全审查。董事会成员 Toner 要求看审批文件,结果发现其中两项争议最大的功能(用户自定义微调和个人助手部署)根本没有拿到安全面板的批准。

更离谱的事情在印度发生。一名员工向另一位董事会成员举报了"那次违规":微软没有完成必要的安全审查,就在印度提前发布了 ChatGPT 的早期版本。

Sutskever 还在备忘录中记录了另一件事:Altman 曾对前 CTO Mira Murati 说,安全审批的流程没那么重要,公司法律总顾问已经认可了。Murati 跑去跟法律总顾问确认,对方回了一句:"我不知道 Sam 是从哪里得出这个印象的。"

Amodei 的200 页私人笔记

Sutskever 的文件像一份检察官起诉书。Amodei 留下的 200 多页笔记,更像一个目击者在案发现场写的日记。

Amodei在 OpenAI 做安全负责人那几年,亲眼看着公司在商业压力下一步步后退。他在笔记中记了 2019 年微软投资案的一个关键细节:他曾在 OpenAI 章程里塞进一个"合并与协助"条款,大意是,如果有别的公司找到了更安全的 AGI 路径,OpenAI 就该停止竞争,转去帮那家公司。这是他在整笔交易中最看重的安全保障。

交易快签的时候,Amodei 发现了一件事:微软拿到了对这个条款的否决权。什么意思?就算真有一天某个竞争对手找到了更好的路,微软一句话就可以堵死 OpenAI 的协助义务。条款还在纸上,但从签字那天起就是废纸。

Amodei 后来离开 OpenAI,创立了 Anthropic。两家公司之间的竞争,底层是关于"AI 应该怎么开发"的根本性分歧。

消失的 20%算力承诺

报道里有一个细节,读完让人后背发凉,关于 OpenAI 的"超级对齐团队"。

2023 年年中,Altman 邮件联系了一位在伯克利研究"欺骗性对齐"(AI 在测试中装乖、实际部署后搞自己那套)的博士生,说自己非常担忧这个问题,在考虑设立一个 10 亿美元的全球研究奖。博士生很受鼓舞,休了学,加入了 OpenAI。

然后 Altman 改了主意:不搞外部奖项了,在公司内部成立"超级对齐团队"。公司高调宣布,将把"已有算力的 20%"拨给这个团队,潜在价值超过 10 亿美元。公告措辞极其严肃,说如果对齐问题得不到解决,AGI 可能导致"人类被剥夺权力,甚至人类灭绝"。

被任命领导这个团队的 Jan Leike 后来告诉记者,这个承诺本身就是一个很有效的"人才留存工具"。

现实呢?四位在这个团队工作或密切接触的人士说,实际拨给的算力只有公司总算力的 1%到 2%,还是最老旧的硬件。这个团队后来被解散,使命未完成。

当记者要求采访 OpenAI 负责"存在性安全"研究的人员时,公司公关的反应让人哭笑不得:"那不是一个......实际存在的东西。"

Altman 本人倒是坦然。他跟记者说,自己的"直觉跟很多传统 AI 安全的东西不太合拍",OpenAI 还是会做"安全项目,或者至少是跟安全沾边的项目"。

被架空的 CFO 与即将到来的 IPO

《纽约客》的报道只是这一天坏消息的一半。同一天,The Information 爆出另一个重磅消息:OpenAI的 CFO Sarah Friar跟 Altman 之间出了严重分歧。

Friar 私下告诉同事,她觉得 OpenAI 今年还没准备好上市。两个原因:要完成的程序性和组织性工作量太大,Altman 承诺的 5年 6000 亿美元算力支出带来的财务风险太高。她甚至不确定 OpenAI 的营收增长撑不撑得住这些承诺。

但 Altman 想在今年第四季度就冲刺 IPO。

更离谱的是,Friar 已经不再直接向 Altman 汇报了。从 2025年 8 月起,她改为向 Fidji Simo(OpenAI 的应用业务 CEO)汇报。而 Simo 上周刚因健康原因请了病假。你来品品这个局面:一家冲刺 IPO 的公司,CEO和 CFO 有根本性分歧,CFO 不向 CEO 汇报,CFO 的上级还休假了。

连微软内部的高管都看不下去了,说 Altman"歪曲事实、出尔反尔、不断推翻已达成的协议"。一位微软高管甚至说了这样一句话:"我觉得他有一定概率最终会被人们记住为伯尼·麦道夫或 SBF 级别的骗子。"

Altman 的"双面人"画像

一位前 OpenAI 董事会成员对记者描述了 Altman 身上的两种特质。这段话可能是整篇报道里最狠的人物素描。

这位董事说,Altman 有一种极其罕见的特质组合:他在每一次面对面的交流中,都强烈渴望取悦对方、被对方喜欢。同时,他对欺骗别人可能带来的后果,有一种近乎社会病态的无所谓。

两种特质同时出现在一个人身上,极为罕见。但对一个推销员来说,这是最完美的天赋。

报道里有一个比喻说得好:乔布斯以"现实扭曲力场"闻名,他能让全世界相信他的愿景。但即使是乔布斯,也从来没有跟顾客说过"你不买我的 MP3 播放器,你爱的人都会死"。

Altman 说过类似的话,关于 AI。

一个 CEO 的人品问题,为什么是所有人的风险

Altman 要只是一家普通科技公司的 CEO,这些指控充其量是一个精彩的商业八卦。可 OpenAI 不普通。

按照它自己的说法,它正在开发可能是人类历史上最强大的技术。能重塑全球经济和劳动力市场(OpenAI 自己刚发了一份关于 AI 导致失业问题的政策白皮书),也能被用来制造大规模生化武器或发动网络攻击。

所有的安全护栏名存实亡了。创始人的非营利使命让位给了 IPO 冲刺。前首席科学家和前安全负责人都认定 CEO"不可信"。合作伙伴把 CEO 比作 SBF。在这种情况下,这个 CEO 凭什么单方面决定什么时候发布可能改变人类命运的 AI 模型?

Gary Marcus(纽约大学 AI 教授、长期 AI 安全倡导者)读完报道后写了一句话:如果某个未来的 OpenAI 模型能造出大规模生化武器或发动灾难性网络攻击,你真的放心让 Altman 一个人来决定发不发布?

OpenAI 对《纽约客》的回应倒是简洁:"这篇文章的大部分内容是在翻炒已报道过的事件,通过匿名说法和有选择性的轶事,消息源显然带有个人目的。"

很 Altman 的回应方式:不回应具体指控,不否认备忘录的真实性,只质疑动机。

非营利的尸体上,长出了一棵摇钱树

OpenAI 的十年,写成一个故事大纲是这样的:

一群担忧 AI 风险的理想主义者创建了一家使命驱动的非营利组织。组织做出了非凡的技术突破。突破吸引了巨额资本。资本需要回报。使命开始让路。安全团队解散了。质疑的人被清洗了。非营利架构改成了营利实体。曾经有权关掉公司的董事会,现在坐满了 CEO 的盟友。曾经承诺拿出 20%算力守护人类安全的公司,现在的公关人员说"那不是一个实际存在的东西"。

故事的主角,一百多位亲历者给了他同一个标签:"不受真相约束。"

他正准备带着这家公司 IPO,估值超过 8500 亿美元。

本文信息综合自《纽约客》、Semafor、Tech Brew、Gizmodo、Business Insider、The Information 等多家媒体的公开报道。

相关问答

Q为什么OpenAI首席科学家Ilya Sutskever认为Sam Altman不可信?

AIlya Sutskever通过整理70页内部文件,认为Sam Altman表现出‘撒谎’的行为模式,具体包括在董事会会议上虚假陈述GPT-4功能已通过审查,以及向高管传达错误的安全审批流程信息。

QAnthropic创始人Dario Amodei在OpenAI时期留下的笔记揭示了什么关键问题?

AAmodei的200多页笔记记录了OpenAI在商业压力下安全承诺的倒退,例如微软投资案中‘合并与协助’条款被微软实际否决,导致OpenAI无法履行协助更安全AGI开发者的义务。

QOpenAI的‘超级对齐团队’实际获得了多少算力支持?

A尽管公司公开承诺拨付20%算力(价值超10亿美元)给超级对齐团队,但实际仅分配了1%-2%的算力,且使用的是最落后的硬件,该团队最终被解散。

QCFO Sarah Friar与Sam Altman的分歧主要是什么?

AFriar认为OpenAI在2024年未准备好IPO,因程序性工作量大且Altman承诺的6000亿美元算力支出存在财务风险,但Altman坚持年内上市,导致两人关系紧张且Friar被调整汇报关系。

Q为什么Sam Altman的人品问题被视为全球性风险?

A因OpenAI开发的技术可能重塑经济或制造大规模杀伤性武器,而Altman被多名内部人士指控‘撒谎’和规避安全流程,其个人决策可能单方面决定高风险AI模型的发布,危及全球安全。

你可能也喜欢

坚守一级市场的VC,手里还有多少钱?

原标题:坚守一级市场的VC,手里还有多少钱? 多位加密货币行业投资人就一级市场现状展开讨论,核心分歧在于资金究竟集中在早期还是后期阶段,但共识是:市场并不缺钱,缺的是值得投资的高质量项目。 Crucible Capital合伙人Meltem Demirors指出,加密货币行业真正能带来“VC级回报”的赛道有限,目前优秀创始人和项目供给不足,导致从种子轮到A轮的门槛显著提高。 Blockworks联合创始人Mippo补充称,早期资金其实过剩,但后期增长资金明显不足。 然而,Varys Capital的Tom Dunleavy与Pantera Capital的Mason Nystrom就资金分布产生激烈争论。Dunleavy引用数据称,2026年80%以上资金流向了后期轮次,A轮及之后的可用资金约60-70亿美元,集中在5-6家大型机构;早期资金仅10-20亿美元,分散于数十家小基金。Nystrom则反驳称,真正能投B轮的基金极少,大多数项目进入传统VC体系后已不算纯加密货币项目,且早期融资的“可获得性”远高于后期。 双方虽未达成一致,但揭示出同一现实:表面资金充足,实则结构收紧——早期资金分散但竞争激烈,中后期资金集中却门槛极高。市场正从依赖叙事和流量转向更看重实际业务进展和长期增长能力。对VC意味着必须更谨慎出手,对创业者则需具备跨越长周期和高门槛的实力。

Odaily星球日报16分钟前

坚守一级市场的VC,手里还有多少钱?

Odaily星球日报16分钟前

交易

现货
合约
活动图片