关于ZAKER 合作
硅星人 前天

《纽约客》10826 字调查:把 AGI 的钥匙交给奥特曼,我们是否搞错了人

2026 年 4 月 6 日,《纽约客》发布了一篇长达 10826 字的调查报道,作者是 Ronan Farrow 和 Andrew Marantz ——前者是普利策奖得主,以哈维 · 韦恩斯坦性丑闻调查成名;后者长期跟踪科技与权力交叉地带。两人花了整整 18 个月,采访了 100 多位知情人,获取了数百页从未公开的内部文件,写出了这篇以 OpenAI 创始使命为主轴、以 Sam Altman 为核心的深度调查。

这不是一篇例行的 CEO 侧写。文章的核心证据来源于两个此前不为外界所知的文件:其一是前首席科学家 Ilya Sutskever 整理的逾 70 页内部备忘录,汇集了 Slack 消息、HR 记录和管理层会议纪要;其二是现任 Anthropic CEO Dario Amodei 在 OpenAI 任职期间留下的 200 多页私人笔记。这两份文件的存在,让这篇调查脱离了 " 匿名爆料 " 的层级,进入了有文字记录的证词范畴。

报道的核心结论不是一个惊天秘密,而是一条系统性的证据链:OpenAI 用 " 造福人类 " 的框架建立了信任,用 " 安全优先 " 的承诺招募了人才,但当商业利益与这些承诺发生冲突时,承诺一次次让步。而站在这条退让轨迹中心的,始终是同一个人。

原文链接:https://www.newyorker.com/magazine/2026/04/13/sam-altman-may-control-our-future-can-he-be-trusted

一、一份备忘录,一个第一条

2023 年 11 月的那场闪电式解雇,在奥特曼五天后复职时,就已经被主流叙事定格成一个特定的故事版本:董事会政变失败,CEO 胜利回归,几个不懂商业的学术派败给了硅谷最好的 pitchman。

《纽约客》的调查试图拆解这个版本。

Sutskever 是在部分董事会成员的要求下,整理了那份 70 页的内部报告的。文件汇集了奥特曼在 Slack 频道、HR 系统和管理层例会中的行为记录——据报道,这些截图是用手机拍摄的,显然是为了避免被公司设备检测到。Sutskever 将最终的备忘录以 " 阅后即焚 " 形式发送给其他董事会成员,以确保不留痕迹。" 他非常害怕," 一位收到材料的董事会成员回忆道。

文件将奥特曼的行为归纳成一份清单,标题是:"Sam 表现出一贯的行为模式…… "

第一条:撒谎。

Sutskever 当时对身边人说的是:" 我不认为 Sam 是那个应该把手指放在按钮上的人。" 他用的词是 "the button" ——在 AI 圈,这个说法通常指的是 AGI 发布的决定权。

同一份文件被部分董事会成员视为解雇的直接依据。董事会的正式声明措辞刻意保守,说奥特曼 " 对董事会的沟通不够坦诚 "(not consistently candid)。《纽约客》的调查给这句话填上了内容:这不是一次失误,这是一种模式。

五天后,奥特曼复职,那批董事会成员离开。调查虽然启动,由处理过安然和世通案的 WilmerHale 律师事务所主持,但据六位接近调查的知情人透露,调查从设计上就限制了透明度——最终没有形成任何书面报告,只有向新董事会成员的口头简报。不留书面记录的决定,据报道部分来自萨默斯和泰勒私人律师的建议。一位接近调查的人士说:" 一切迹象表明他们想找出结果,即宣判他无罪。"Sutskever 的 70 页文件,就这样从公众视野里消失了,直到《纽约客》拿到它。

二、Dario Amodei 的 200 页笔记:一个人看见了什么,然后做了什么

如果说 Sutskever 的备忘录是一份行为记录,那 Amodei 在 OpenAI 任职期间留下的 200 多页私人笔记,则更接近于一份认知过程的实况转播——它记录的不只是奥特曼做了什么,更是一个研究者如何一步步得出 " 这家公司救不了 " 的判断。

Amodei 在 2016 年加入 OpenAI,是主导 GPT-2 和 GPT-3 研究的核心人物之一。他比绝大多数人更早相信一件事:把更多算力倒进这些模型,它们会无限变聪明,而这件事的风险是真实的、巨大的,必须在能力扩张的同时同步解决安全问题。

外界长期把他和奥特曼的裂痕描述为 " 路线分歧 " ——他想要更慢、更谨慎,奥特曼要更快。Amodei 自己后来的说法更直白:" 在别人的愿景里争论是极其低效的。" 他已经判断,奥特曼的 OpenAI 有其不可改变的内在逻辑,任何在内部推动安全优先的努力,都会在那个逻辑面前失效。

《纽约客》的文件让这个判断有了更具体的来源。

2019 年,微软以 10 亿美元投资 OpenAI,将其从非营利结构转型为 " 有上限利润 "(capped profit)实体。谈判期间,Amodei 提出了他视为最核心的安全条款:一旦其他 AI 公司在安全性上比 OpenAI 更接近 AGI,OpenAI 必须停止竞争、将资源并入对方——他称之为 " 合并与协助 " 条款。逻辑是:如果有人比我们更安全地接近终点,我们应该支持他们,而不是继续赛跑。

这是他对 "OpenAI 是否真的把安全放在竞争之上 " 的测试,也是他参与这场谈判的底线。

合同签署后,他发现微软被赋予了对任何此类合并的否决权——那个条款实际上已经失效。更关键的是,当 Amodei 就此质问奥特曼时,奥特曼起初直接否认该条款存在。Amodei 大声朗读合同文本,指着具体段落,最终不得不叫来另一位同事当场确认,才逼出了承认。奥特曼后来说 " 不记得这件事 "。Amodei 在笔记里写道:" 宪章的 80% 被背叛了。"

此后的几年里,他继续留在 OpenAI,继续做研究,也继续在笔记里记录他所观察到的一切。直到 2020 年 12 月,他带着 14 位研究人员一起离开,其中包括他的妹妹 Daniela(曾任 OpenAI 安全与政策副总裁)、Chris Olah(可解释性研究先驱)等人。这批人是 OpenAI 扩展基础设施的建造者——他们不是普通员工,而是知道 " 下一代模型会是什么 " 的人。

他们创立了 Anthropic。

《纽约客》的调查显示,Amodei 的私人笔记中,最终出现了那句后来广为传播的结论:"OpenAI 的问题就是 Sam 本人。"

写下这句话的人,在 OpenAI 工作了五年,主导了这家公司最关键的技术突破,离开后对外始终保持克制——公开场合只说 " 有很多关于我为何离开的错误信息 "。他可以说分歧在于 " 视野 ",他最终写下的是 " 问题是 Sam 本人 "。

Anthropic 的创立逻辑,正是建立在这个判断上:如果你无法在现有框架内推动安全优先,就去建一个新框架——把安全从训练开始就嵌入模型,而非能力开发完成后再打补丁。这就是 Constitutional AI 的起点。

五年后的今天,Anthropic 的估值已达 3800 亿美元,在企业级 AI 市场的代码任务中占据 42% 的份额,超过 OpenAI 的两倍。

《纽约客》调查发布后,Amodei 的 200 页笔记第一次以公开文件的形式存在于外部世界。Amodei 离职后没有发布公开信,没有 Twitter 长文,没有接受媒体密集采访来为自己的选择背书。他的私人笔记,是他留下的唯一证词。

对 OpenAI 的现任领导层来说,这 200 页笔记比任何公开批评都更难处理——因为它们来自一个曾经在内部的人,记录的是他亲眼目睹的事。

三、安全承诺:从五分之一到 1%

OpenAI 从诞生起,就把 "AI 的存在风险 " 写进了自己的 DNA。这家公司的创始前提是:我们可能正在建造人类历史上最危险的技术,所以必须由一个不以利润为导向的机构来主导它。

2023 年 7 月,奥特曼宣布成立 " 超级对齐 "(Superalignment)团队,承诺将公司五分之一的算力用于解决 AI 的长期安全问题,目标是在四年内防止 AI 导致 " 人类文明的瓦解,乃至人类的灭绝 "。与 Sutskever 共同领导团队的 Jan Leike 对《纽约客》坦承:" 这是一个相当有效的留任工具。"

《纽约客》的调查显示,这个团队实际获得的算力约为1% 到 2%,且使用的是公司最老旧的硬件。团队内的一位研究员描述说," 大部分超对齐算力实际上都在最差的旧集群上运行 ",优质硬件被保留给了盈利业务。Leike 曾向时任 CTO Mira Murati 投诉,但她告诉他不要再追问——那个承诺从未切实可行。

团队后来被解散。Leike 离职时在 X 上写道:" 安全文化和流程已经退居次要,让位给光鲜的产品。"

《纽约客》记者在采访时参观了 OpenAI 的新办公室。办公室各处的牌匾、宣传册和周边商品上,印满了 " 感受 AGI"(Feel AGI)的字样。这个短语最初来自 Sutskever,他用它来提醒同事注意通用人工智能的存在风险。在奥特曼复职后,它成了一句欢快的营销口号。

当记者询问 OpenAI 公关是否能安排采访从事 " 存在性安全 " 研究的人员时,得到的回答是:" 那不是……一件事。"

奥特曼在接受《纽约客》采访时,对此的解释是他的 " 感觉和传统的 AI 安全理念不太合拍 ",并含糊地表示公司会 " 开展一些安全项目,或者至少是接近安全的项目 "。

从 " 防止人类灭绝 " 到 " 接近安全的项目 ",是 OpenAI 过去五年商业化路径的缩影。

四、不止 OpenAI:一个延伸至 Y Combinator 的行为档案

《纽约客》调查的一个重要维度,是将视角向前推,审视奥特曼在 OpenAI 之前的职业轨迹。

在 Y Combinator,奥特曼于 2014 年成为总裁,后来升任 YC 集团主席。报道显示,他在 YC 期间多次面临来自内部的信任质疑。他本人坚称从未被 YC 解雇,但《纽约客》获取的当时资料和多位 YC 创始人及合伙人的证词,均指向分手并非完全双方同意。格雷厄姆曾私下告诉 YC 同事,在奥特曼被撤职之前," 山姆一直在对我们撒谎。"

早在 2005 年,Aaron Swartz(著名程序员和网络活动家,Altman 在 Y Combinator 同届)就曾对身边的人说过一句话:" 你需要明白,Sam 永远不能被信任。他是一个反社会人格者,会不惜一切。"

多年后,一位前 OpenAI 董事会成员用了几乎相同的词汇:说奥特曼具备两种极少同时出现在一个人身上的特质—— " 极度渴望在每一次互动中被人喜欢,以及对欺骗他人的后果几乎没有任何顾虑 "。

前董事会成员 Sue Yoon 给出了另一个略有不同的角度:她认为奥特曼不是一个精心算计的马基雅维利式人物,而是一个生活在 " 自我信念泡沫 " 中、能够真正说服自己相信自己不断更新的销售说辞的人。她的原话是:"他不是那种反派。他太沉浸在自己的信念里了。他做了很多如果你活在真实世界里毫无逻辑的事,但他根本不活在真实世界里。"

两种描述指向不同的因果:一个是有意为之,一个是结构性失真。结论是一样的。

五、微软、亚马逊与连续食言

奥特曼的食言记录,并不局限于内部文件。《纽约客》描述了他与微软关系持续恶化的过程,多位微软高管对记者表达了类似的感受:他在合同签署后反复更改条款、重新谈判、单方面调整已有协议。

一位高管的原话是:" 他歪曲、扭曲、重新谈判、违背承诺。"

今年发生的一个案例更为具体:在 OpenAI 重申微软为其 " 无记忆 AI 模型 " 独家算力提供商的同一天,它宣布了与亚马逊高达 500 亿美元的协议,由后者担任其 "Frontier"AI Agent 平台的独家经销商。微软随后公开暗示可能提起法律诉讼。

这件事的时间点选择,被多位观察者认为不是疏忽,而是风格。

报道还涉及奥特曼在国家安全层面的决策逻辑。从 2023 年秋开始,他开始秘密推进一个后来被称为 "ChipCo" 的计划,目标是从海湾国家(沙特、阿联酋等)募集数百亿美元,在中东建设大型芯片代工厂和数据中心。据报道,他向现任 Meta AI 负责人 Alexander Wang 推荐领导职位,并声称亚马逊创始人贝索斯可以执掌新公司。一位知情的董事会成员告诉《纽约客》:" 据我了解,这整件事发生时董事会并不知情。"

美国国家安全官员对此高度警惕。阿联酋的电信基础设施严重依赖华为硬件,情报机构担心送往阿联酋的先进芯片可能被中国工程师利用。据知情人透露,奥特曼在公开场合推动 AI 监管框架的同时,私下却在游说反对可能限制上述交易的监管措施。一位曾参与协调安全许可流程的政府工作人员写道,他想到的唯一经历过如此大规模外国金融联系的人,是贾里德 · 库什纳——而当年的审查建议不授予他许可。

六、调查发布当天,他发布了一份 " 新政 "

《纽约客》调查上线的时间节点,本身也是一条信息。

4 月 6 日,同一天,OpenAI 发布了一份 13 页的政策白皮书,标题涉及 AI 时代的产业政策,奥特曼在接受 Axios 采访时将其比作 " 新政 "(New Deal)——他说,AI 对经济的冲击将如此巨大,以至于我们需要重新设计税收体系、劳动制度,乃至工作日的长度。

批评者的反应很快。卡内基国际和平基金会的访问学者 Anton Leicht 在社交媒体上写道,这份文件提出的那些 " 根本性的社会变革……不会自然涌现成某种替代方案 ",其 " 模糊性质和发布时机 " 让他难以乐观——他给出的定性是:这是一种 " 监管虚无主义 " 的公关掩护。

Gary Marcus(认知科学家,长期批评奥特曼)的观察更直接:每当奥特曼遇到麻烦时,他都会用新的叙事来转移注意力。此时此刻,他正同时面临《纽约客》的定性、CFO Sarah Friar 被排除在关键财务决策之外的报道(来自 The Information),以及市场对 OpenAI 商业模式可持续性越来越强烈的质疑。

OpenAI 的官方回应,是称这篇报道 " 大量重温了此前已有记录的事件,依赖匿名说法和带有明显立场的人提供的选择性轶事 "。

这个回应本身也是一种模式。

写在最后

18 个月,100 多位知情人,200 多页内部文件。Farrow 和 Marantz 最终提出的问题只有一个,也是 OpenAI 创始以来最应该被追问却最少被正面回答的那个问题:他可以被信任吗?

《纽约客》没有给出明确的裁决,但把此前藏在非公开文件和私人对话里的证据放到了白纸黑字上。

Sutskever 的备忘录存在。Amodei 的笔记存在。五分之一变成 1% 的算力记录存在。

奥特曼不久后将带领 OpenAI 完成 IPO。根据目前的计划,这将是人类历史上最大规模的科技公司上市之一。届时,那份 " 相信他可以被信任 " 的压力,将从一小群董事会成员身上,转移到数以百万计的公众投资者那里。

《纽约客》的文章,算是一份提前送达的材料包。

原文的最后一段,用的是奥特曼自己的话作结。2023 年,在被解雇前不久,他谈到了大语言模型的一种倾向:模型会学着取悦用户,有时优先于诚实,这被研究者称为 " 谄媚 "(sycophancy);模型也会编造事实,被称为 " 幻觉 "(hallucination)。主要 AI 实验室已经记录了这些问题,有时也容忍它们。奥特曼当时说,如果你严格要求模型 " 永远不说它百分之百确定的话 ",可以做到," 但它就不会有人们喜欢的那种魔力了 "。

Farrow 和 Marantz 没有对这段话做任何评注,就结束了全文。

相关标签

相关阅读

最新评论

没有更多评论了
硅星人

硅星人

硅是创造未来的基础,欢迎登陆硅星球。

订阅

觉得文章不错,微信扫描分享好友

扫码分享

企业资讯

查看更多内容