Sam Altman: OpenAI, GPT-5, Sora, Board Saga, Elon Musk, Ilya, Power & AGI (2024-03-18, gemini-2.5-pro)
1. 背景与价值
Sam Altman 正处在人工智能革命的风暴中心,而这场对话发生在一个微妙的时刻:OpenAI 刚刚经历了险些颠覆公司的董事会风波,发布了震撼业界的视频生成模型 Sora,同时还面临着来自创始成员之一 Elon Musk 的诉讼。作为 OpenAI 的 CEO,Altman 是唯一有资格在单一对话中串联起这些看似孤立事件背后战略逻辑的人。这场访谈的价值,在于它提供了一个机会,让我们得以一窥这位塑造未来的关键人物在压力之下的思考框架——他如何理解权力、如何定义进步、以及他为通往 AGI 的道路绘制了怎样一张充满争议的路线图。对于任何试图理解 AI 将如何重塑技术、资本和权力格局的人来说,这不仅是一次访谈,更是一份来自前线的战略简报。
Altman 的核心世界观可以概括为 “以工程确定性迈向不可预测的未来”。他坚信,通过近乎无限的算力投入和持续的迭代部署,通往 AGI 的道路是一条陡峭但可预测的指数曲线。在这个世界观里,今天最强大的 GPT-4 “糟透了”,因为明天的 GPT-5 将使其显得无比原始;“7万亿美元” 的投资传闻虽然夸张,但其背后的逻辑——算力是未来的终极货币——却是严肃的。这种观点之所以充满张力,是因为它将 AGI 的诞生从一个充满哲学不确定性的科学探索问题,重构成了一个可通过资本和工程解决的规模化问题。它乐观地将治理、安全和权力斗争等“软问题”视为可以随着技术迭代而“修复”的 bug,而批评者则认为,恰恰是这些“软问题”中潜藏着无法被摩尔定律解决的、真正的存亡风险。
2. 核心观点
1. 算力是未来的终极货币,其需求接近无限。 Altman 断言,未来的算力将成为世界上最珍贵的商品,其地位堪比能源。他认为,智能的需求与手机芯片这类有限市场完全不同,它更像是一种价格弹性极大的资源:当算力变得足够便宜,人们会用它来处理从阅读邮件到攻克癌症的所有问题。这种无限需求意味着,当前对芯片、数据中心和能源的投资规模远未触及天花板。所谓的 “7万亿美元” 计划,无论数字真假,其背后所反映的正是这种对算力需求呈指数级增长的判断。这一观点是 Altman 所有宏大计划的基石,也是 OpenAI 寻求与能源(特别是核聚变,如 Helion)和半导体产业深度绑定的根本原因。
2. GPT-4 “糟透了”——衡量AI进步的尺度是变化率,而非当前能力。 当被问及 GPT-4 的惊人能力时,Altman 反直觉地称其 “糟透了”(kind of sucks)。这并非否定其成就,而是在强调一种看待 AI 进步的独特视角:真正的重点不是当前模型的能力水平,而是代际之间的提升幅度。他预测,从 GPT-4 到 GPT-5 的飞跃,将如同从 GPT-3 到 GPT-4 一样巨大,届时回看 GPT-4 就会觉得它 “难以想象的可怕”。这个论断的底层逻辑是,OpenAI 正走在一条陡峭的指数曲线上,内部的研发节奏远超公众感知。这一定位既是内部的驱动力,也是一种巧妙的预期管理,暗示着真正的颠覆尚未到来。
3. 通往 AGI 之路必然是一场巨大的权力斗争。 Altman 坦言,他不希望,但完全预料到通往 AGI 的道路上会充满激烈的权力斗争。他将2023年11月的董事会风波视为这场斗争的 “一次预演”。其底层逻辑在于,AGI 带来的巨大权力将不可避免地引发控制权的争夺。他认为,这次危机暴露了 OpenAI 非营利董事会结构中的一个关键缺陷:董事会权力巨大,却只对自己负责,缺乏对股东或更广泛利益相关者的制衡。这次经历让他深刻认识到,构建一个能在巨大压力下保持稳定的组织和治理结构,是实现 AGI 使命的技术挑战之外最重要的一环。
4. 迭代部署是核心安全策略,旨在消除“意外”。 Altman 认为 OpenAI 最重要的策略之一是 “迭代部署”(iterative deployment)——即不搞秘密研发,直到造出 AGI 才公之于众,而是逐步发布 GPT-1, 2, 3, 4 等一系列能力不断增强的模型。他认为 “AI 与意外不能并存”,这种渐进式的方法能让社会、机构和政策制定者有时间去适应、理解和准备,从而在真正强大的 AGI 出现前建立起必要的治理框架。这一策略隐含的判断是,社会性风险(如滥用、偏见、经济冲击)和治理挑战是比“AI突然失控”更紧迫的威胁。
5. AGI 的真正定义是“能显著加速科学发现”,而非某个技术奇点。 对于何时能实现 AGI,Altman 回避了给出具体年份,而是重新定义了问题。他认为 AGI 不是一个模糊的技术里程碑,而应该用其产生的实际影响来衡量。对他个人而言,一个系统能够 “显著提高世界科学发现的速度”,才称得上是 AGI。这个定义的背后,是他坚信真正的经济增长源于科技进步。这意味着 AGI 的价值不在于通过图灵测试或展现类人智能,而在于成为一种能系统性解决人类最复杂科学问题的工具,从根本上改变人类知识增长的模式。
这五个观点构成了一条清晰的逻辑链:对 AGI 加速科学发现(5) 的信念,驱动了对 指数级能力进步(2) 的追求;这种进步依赖于对 天量算力(1) 的投资和掌控;而对算力和未来智能的掌控权,则不可避免地引发 权力斗争(3);为了在这一过程中不让世界“翻车”,必须采取 迭代部署(4) 的方式,让社会逐步适应。
3. 批判与质疑
-
对“规模化=解决方案”的过度自信:Altman 的整个论述体系都建立在“Scaling Law”(规模法则)将持续有效的核心前提上。他倾向于将当前的挑战(如模型幻觉、逻辑推理缺陷)视为可以通过更大规模的模型、更多的数据和算力来解决的工程问题。然而,这在多大程度上是可验证的?是否存在某些智能的本质属性(如真正的因果理解、常识推理),是当前 Transformer 架构无论如何扩大规模都无法涌现的?该论述体系对“大力出奇迹”之外的替代性路径探讨不足。
-
对“慢速起飞”场景的乐观假设:Altman 的“迭代部署”安全策略,其有效性高度依赖于 AI 能力的“慢速起飞”(slow takeoff)——即技术发展是渐进的,没有突然的、颠覆性的能力飞跃。然而,AI 领域充满了“涌现能力”的例子。如果 GPT-5 或某个竞争对手的模型突然获得了某种革命性能力(例如,自主进行科学研究),社会将没有时间“适应”,迭代部署的安全网会瞬间失效。竞争压力本身就在迫使所有玩家追求“快速起飞”,这与他的安全哲学存在内在矛盾。
-
治理难题的悬而未决:董事会风波生动地展示了,即使有明确的法律结构,CEO 的个人影响力、团队的忠诚度以及与主要合作伙伴(如微软)的关系等非正式权力,在关键时刻可以压倒正式的治理机制。Altman 承认这是“一种治理失败”,但对话并未给出如何构建一个真正能约束这种非正式权力的、更鲁棒的未来治理方案。当 AGI 的赌注更高时,这个问题将变得更加尖锐。
-
选择性地定义风险:Altman 明确表示,他当前最担心的不是 AI 失控的“戏剧性风险”(theatrical risks),而是由人类滥用、国家行为体攻击等引发的风险。这种风险优先级的划分虽然务实,但也可能存在盲点。它将一个高度不确定的长尾风险(AI 自我意识与目标偏离)置于一系列更具体但可能影响范围更小的短期风险之后。批评者会认为,这种态度可能会导致对“对齐”(Alignment)研究根本性挑战的投入不足。
4. 行业视野
-
印证了“AI 基建军备竞赛”的趋势:Altman 将算力定义为“未来的货币”,并暗示需要万亿级别的投资,这印证了整个行业正在从算法竞赛转向基础设施和供应链的竞赛。这不再仅仅是 Google、Meta 和 OpenAI 之间的竞争,而是扩展到了能源供应商、芯片制造商(NVIDIA, TSMC)、主权财富基金和国家之间的地缘政治博弈。他的言论将 AI 的竞争提升到了一个新的、更具物理实体性的层面。
-
挑战了传统的“开源 vs 闭源”二元对立:面对 Elon Musk 对其“不够开放”的批评,Altman 重新定义了“开放”的含义。他认为,向大众免费提供强大的 AI 工具(如 ChatGPT 免费版)本身就是一种最重要的“开放”,比开源模型代码更有实际意义。这挑战了行业内将“开放”等同于“开源”的传统共识,提出了一种以“能力可及性”(accessibility of capability)为核心的新标准,这无疑会引发开源社区的激烈辩论。
-
与“有效加速主义”(Effective Accelerationism)的微妙共鸣与区别:Altman 对技术进步指数级加速的笃信,以及认为技术本身能解决其带来的问题的倾向,与硅谷盛行的“有效加速主义”(e/acc)思潮有一定共鸣。然而,他强调的“迭代部署”和对政府监管的呼吁(尽管被指责为监管俘获),又与 e/acc 中更激进、更少顾忌的流派划清了界限。他试图在加速创新和控制风险之间走一条中间路线,但这条路是否真的存在,是当前科技界最大的争议之一。
-
呼应了“曼哈顿计划”式的历史时刻:将 AGI 的开发与解决能源问题(核聚变)直接挂钩,暗示着其重要性与复杂性堪比国家级的大科学工程。这让人联想到历史上的“曼ahattan 计划”或“阿波罗计划”——这些项目同样需要集中国家级的资源,解决跨领域的科学与工程挑战,并带来深远的社会和地缘政治影响。这一定位暗示,AGI 的未来可能不是由少数几家创业公司决定,而是由国家力量和全球资本共同塑造。
5. 启示与建议
这场对话挑战了一个核心假设:即 AI 的发展仍主要是一个软件和算法问题。Altman 的观点则强调,下一阶段的瓶颈和机遇在于物理世界的基础设施——能源、芯片和数据中心。这意味着价值链正在向上游转移。
对于开发者与产品经理:
- 为“GPT-4.5/5”而非“GPT-4”设计产品。不要基于当前模型的能力缺陷(如有限的推理链、不稳定的多步骤任务执行)来构建复杂的工作流。你的产品架构应该假设这些核心能力将在 12-18 个月内得到大幅提升。真正的护城河将是那些能够利用更强通用智能的独特用户体验和数据闭环,而不是那些修补当前模型短板的复杂提示工程或工作流编排。
- 关注“人机交互”而非“完全自动化”。Altman 提到,GPT-4 作为“创意头脑风暴伙伴”展现了巨大潜力。这意味着最有价值的应用不是试图完全取代人类,而是在创造性、战略性等认知要求高的任务中,成为人类的“智能副驾”。专注于如何设计一个能与日益强大的 AI 进行流畅、深度协作的界面和流程。
对于投资人:
- 将投资视野从模型层扩展到AI供应链。Altman 明确指出了瓶颈所在:能源、数据中心、供应链和芯片制造。这意味着对下一代能源技术(如核聚变、SMR)、新型数据中心架构、以及能绕开当前芯片瓶颈的创新硬件公司的投资,可能比单纯投资另一个基础模型公司有更高的风险收益比。
- 警惕“AI 泡沫”中的叙事风险。Altman 的“GPT-4 sucks”论调,一方面是在为未来造势,另一方面也提醒市场,当前围绕 GPT-4 能力构建的许多商业模式可能非常脆弱。当 GPT-5 出现时,许多基于当前技术局限性的“AI 解决方案”可能会被模型本身的能力所淹没。需要仔细甄别哪些公司在构建持久的价值,哪些只是在贩卖“模型能力套利”的短期机会。
对于创业者:
- 不要在通用智能上与 OpenAI 们正面竞争。Altman 的逻辑表明,通往更强通用模型的道路是一场资本和算力的消耗战,小公司机会渺茫。机会在于利用这些平台提供的、即将变得更强的通用能力,去解决特定行业的、需要深度领域知识的难题。与其构建一个“更好”的聊天机器人,不如构建一个能利用 GPT-5 级别推理能力来加速药物研发、材料科学或法律文书分析的垂直应用。
最后,Altman 对 AI 能力将呈指数级提升的判断是一个强信号,这基于他所掌握的内部数据和研发进展。然而,关于这种进步能平稳、安全地被社会吸收的论断,则更像是一个合理的、但充满不确定性的推断。在采纳其乐观愿景的同时,也应为其论述中被淡化的风险和未解决的治理难题打上一个折扣。
6. 金句摘录
-
“I think it kind of sucks.”
- 中文意译:“我觉得它(GPT-4)其实挺烂的。”
- 语境:在被问及对 GPT-4 的惊人能力作何感想时,Altman 给出了这个出人意料的回答。他的意图不是贬低现有成就,而是强调 AI 进步的速度之快,让他相信 GPT-5 会让 GPT-4 显得同样过时和笨拙。这句话浓缩了他对 AI 发展指数曲线的坚定信念。
-
“The road to AGI should be a giant power struggle. I expect that to be the case.”
- 中文意译:“通往 AGI 的道路理应是一场巨大的权力斗争。我预计情况就是如此。”
- 语境:在回顾董事会风波时,Altman 将其定性为未来更大规模权力斗争的预演。这句话揭示了他对 AGI 地缘政治影响的清醒认识——当赌注如此之大时,天真的理想主义是行不通的,冲突几乎是必然的副产品。
-
“I think compute is going to be the currency of the future. I think it’ll be maybe the most precious commodity in the world.”
- 中文意译:“我认为算力将是未来的货币。它或许会成为世界上最宝贵的商品。”
- 语境:在回应关于“7万亿美元”的传闻时,Altman 阐述了他的核心宏观经济观点。他认为,对智能的需求是无限的,这将使算力成为驱动未来经济的根本性资源,其重要性将超越我们今天所知的任何商品。
-
“We multiply 200 medium-sized things together into one giant thing.”
- 中文意译:“我们将 200 个中等规模的东西相乘,最终汇集成一个庞然大物。”
- 语境:Altman 引用 Ilya Sutskever 的话来解释 OpenAI 的成功秘诀。这否定了外界关于 OpenAI 掌握了某个单一“秘密武器”的猜测,而是强调其成功源于在数百个技术细节上持续、系统性的优化和整合。这是一种工程文化的体现:卓越源于对复杂系统全面的、细致入微的掌控。