萨姆·奥特曼:OpenAI、GPT-5、Sora、董事会风波、埃隆·马斯克、Ilya、权力与AGI (2024-03-18, glm-4.7-flash)
OpenAI 深度研报:AGI 路径中的权力重构与算力通胀
1. 背景与价值
在这场全球瞩目的技术神坛对话中,Sam Altman 不仅重申了他作为人工智能领域最具影响力人物的地位,更难得地剥去了胜利者的光环,直面 OpenAI 内部的治理危机与企业战略的深层断裂。这期播客之所以值得深入研读,不仅仅是因为它提供了关于 GPT-5 能力的传言式曝光或对埃隆·马斯克诉讼案的公关口径,更因为它是一次罕见的“垂直视角”:Altman 在承认董事会政变给他带来职业生涯最大耻辱的同时,将其重构为通往 AGI(通用人工智能)必经的“权力磨合期”,并借此弥合了技术乐观主义与组织演化现实之间的鸿沟。
其核心论点在于一种极具挑战性的世界观:通往 AGI 的道路既是技术的指数级跃迁,也是一场漫长的、甚至暴力的权力痛苦重组。他断言 AGI 的定义不应在于机器是否产生了“意识”,而在于其是否能“显著加速科学发现的速率”;同时,他对这一问题给出了一种近乎辩护性的、甚至带有风险的外向型回答——AGI 不是人类的终结,而是人类协作基础架构的进化。这个论题极具张力:一方面,他轻描淡写地将可能改变人类命运的系统面临“被当场击毙”的物理风险视为“ theatre risk”(戏剧性风险),另一方面,他却又精算地布局了万亿级的算力基础设施,试图将这种不可控的潜力驯化在安全与政府监管的笼子里。
2. 核心观点
AGI 是一种“倍增器”而非“颠覆者” Altman 抛弃了传统的 Turing 测试或感官能力类比,重新定义。他主张,判断 AGI 是否达标的唯一标准是它对“科学发现速率”的现实影响。这是一个关于经济学的定义,而非哲学的定义。
- 底层逻辑:历史上绝大多数的经济增长源于科学和技术的进步。如果要解读 Altman 的潜台词,他实际上是在说:如果 AI 只能帮你写诗或写代码(GPT-3/4 的现状),那是工具;只有当它能帮你发现新的物理定律、合成新药、构建材料时,那才是 AGI。
- 背书:他亲口承认,并不指望第一代 AGI 能告诉他大统一理论,但会指引用户去建造特定的实验设备来验证这些理论。这意味着 AGI 的第一种形态可能是一个带着极高直觉的辅助科学家。
算力是未来的“能源”,不是“手机配件” 关于所谓的“7 万亿美元”融资传言,虽然被通俗化为梗,但其背后是对计算成本本质的深刻洞察。Altman 对比了手机芯片市场与算力市场:人口是有限的,但智能消耗是无限的。
- 底层逻辑:随着算力边际成本的下降,人类会像使用能源一样全天候调用 AI 来处理事务。这改变了资本市场的估值逻辑——AI 赛道不再是卖硬件(硬件有上限),而是卖能源(能源需求无上限)。
- 背书:具体指向了能源解决的方案——他公开表态支持核聚变(如 Helion Web)和重新审视核裂变(核电站重启)。这暗示 OpenAI 的下一步护城河在于计算设施的物理可用性,而不仅仅是算法。
“权力斗争”是通往 AGI 的必经痛苦 对于去年的董事会驱逐风波,Altman 没有沉溺于受害者叙事,而是将其视为通往 AGI 路径上必须经历的“阵痛”。这与其领导力哲学直接相关:强大的组织需要处理失控。
- 底层逻辑:AGI 将带来前所未有的社会冲击。如果一个组织在 AGI 之前无法应对内部的“高压力时刻”并存活下来,那么在 AGI 到来时,它必定先于系统崩溃。这种“抗压测试”不可逆。
- 背书:他提到自己几乎“毁掉了自己的公司”,但也感受到巨大的支持力量。他认为董事会结构(尤其是非营利性质)在没有外部约束时极其危险,但他刻意强调自己不想要超级投票权,甚至愿意被误解为寻求“监管俘获”。
从“独角戏”到“协作体”的思维跃迁 在关于编程和 AGI 未来形态的讨论中,Altman 提出了一个关于社会结构的反向推论。他认为未来的 AI 类似于人类大脑的“延伸支架”,而非替代个体。
- 底层逻辑:人类基因几千年未变,但能力爆炸是因为“社会协作的硬件支点”变了。AI 不应该是干扰我们工作的干扰项,而是像智能手机前身的个人电脑一样,成为下一代基础设施,让我们站在巨人的肩膀上。
- 背书:他提出“编程将从代码转向自然语言”,且这不会取代程序员,反而会让编程更聚焦于高层逻辑,底层实现由 AI 完成。这是一种对程序员职业尊严的维护,也是一种对产业重估。
速度与危险的“剧场效应”管理 Altman 对“危险来自 AI 本身”(例如 AI 搞出 BOOM 炸掉一切)这种糟糕的“电影剧本式”风险持有保留意见。他认为当前的 AI 尚未强大到能轻易逃离控制,真正的威胁在于“长周期、慢燃”的误导性信息(如假新闻)。
- 底层逻辑:人类的恐惧机制被进化成对“戏剧性突发危机”的反应(如切尔诺贝利或 911),而对排污、慢性通胀等“隐形杀手”脱敏。因此,监管的重点不应放在防止 AI 造反的灾难性场景上,而应放在透明度和机制设计上。
- 背书:他承认这是一个“政治化”的过程,并举例说 AI 可能被政党工具化。因此,他强调需要政府制定规则,而非企业自救。
GPT-5 的本质是“全知性进步” 与“多步推理” 当被问及 Q* 或 GPT-5 时,Altman 展示了一种防御性的进化论观点。他认为进步一直在发生,所谓的“跃迁”只是观看者因为跨越了认知盲区而产生的错觉。
- 底层逻辑:OpenAI 避免了“秘密研发直到发布”的旧式做法,采取了“迭代部署”。这并非完全不预演,而是为了在试错中调整人类的神经。GPT-5 的突破不在于单一维度的智商碾压,而在于所有维度的同时性提升,以及能够执行更长时间的、多层的复杂任务。
- 背书:他提到 Sora 的重大意义在于它通过观察视频中的遮挡关系(物理交互),证明了 Transformer 模型对物理世界的低维表示,这是通向下一代模型的关键一步。
3. 批判与质疑
尽管这场对话展现了 Altman 作为一位务实的 AI 战略家的一面,但其论述体系存在明显的逻辑漏洞和盲区,值得警惕:
- 幸存者偏差下的组织神话:Altman 将董事会的政变合理化为一次“宝贵的抗压测试”,这掩盖了他作为 CEO 在初期治理上的重大失职。一个真正的卓越 leader 应该在设计结构时预见并堵塞“只听命于董事会却不受市场/公众约束”的漏洞,而非在火光中才学会如何灭火。这种“事后诸葛亮”式的结构优化,并不能解决在下一个关键分歧点上类似的崩塌风险。
- 被低估的“快速爆发”风险:他极力淡化 AI 在短期内失控的可能性(“Theatrical risks”),这种防御性心态可能置身事外。如果真如他所信的那样,AGI 在接下来的几年内就会到来,那么基于“慢热”模型构建的安全护栏可能在数学上根本来不及起效。将亡羊补牢作为常态,是对“技术奇点”这一非线性时间轴的重大误判。
- 资本主义的隐性不公:在谈到了开源与闭源、以及能量与算力的巨额需求时,Altman 对商业模式的态度显得矛盾。他既宣称要免费向公众提供强大工具(Open Source 思想),又站在需要 $7 万亿资金壁垒的一方。在没有解决高质量数据的版权正义问题上(承认艺术家应获偿),仅仅依靠算力和能源的重投入,可能会导致贫困国家、个人开发者与非科技巨头被彻底抛入数字鸿沟的两端,这与他的“将工具交予大众”的初衷背道而驰。
- 被悬置的“黑箱”问题:虽然他提及了利用互联网规模数据进行“自监督学习”,但他回避了一个核心的工程难题:当模型的复杂性达到万亿参数量级时,控制论意义上的“解释性”已经消失。他试图通过外交辞令和伦理原则来掩盖技术栈的不可知论,这将把安全测试的成本无限推后。
4. 行业视野
这场对话不仅仅是 OpenAI 的内部复盘,更是整个硅谷在后 ChatGPT 时代的一次战略总动员:
- 印证了“我军所在”的趋势:与 Yann LeCun 等人关于纯生成式模型局限性的争论不同,Altman 的观点证实了 Scaling Laws(缩放定律)依然是当前最强有力的路径。即使没有模型架构的根本性颠覆,通过增加维度(Sora 的视觉 Patch)和延长上下文(超千亿 Token),依然能逼近感知智能的边界。
- 挑战了“单一霸权”的神话:对话中反复提及的与马斯克的诉讼案、与 Google 的竞争,标志着 AI 竞争从“技术竞赛时代”进入了“权力游戏时代”。谷歌的垄断地位(搜索、广告)与 OpenAI 的技术霸权正在发生正面碰撞,这将迫使监管机构对“计算即公用事业”进行深刻的法律界定。
- 呼应了能源危机与工业复兴的历史轨迹:将重点转移到核能和算力基础设施,让人联想到 19 世纪为了电力传输而建设的输电网,以及 20 世纪为了集成电路建立的半导体产业链。这预示着未来的地缘政治和经济重心将向控制“能源接口”的地区(无论是铀矿还是硅晶圆)转移。
5. 启示与建议
前置假设的反思:这场对话核心挑战了大众对 AI 进步的步调预期。我们不应期待一个惊天动地的“奇点时刻”,而应视为一个缓慢、持续但不可逆的“逼近感”过程。ATM 机发明时没震惊世界,但普及后就改变了生活;同理,AGI 将慢慢渗透进每一个次级任务中。
-
针对开发者与产品经理:
- 重构定义: 不要只关注如何替代人类劳动力(重构业务),而应关注如何利用 AI 的多步推理能力将现有业务拆解重组(重构工作流)。GPT-4 Turbo 的魔力在于其作为“思维助手”而非“写作器”。
- 拥抱低代码、自然语言编程:既然 Altman 预言编程将从 C/C++ 转向自然语言,现在的积累应集中在构建“语义层”和“验证层”,而非深入到实现细节中。
- 关注幻觉之外的:Focus on the “Sora” capability. 在视觉生成领域,理解物理世界的简单表征(如遮挡、碰撞)将成为产品竞争力的护城河,尤其是对于涉及 3D 场景交互的产品。
-
针对投资人:
- 能源基建优先级:如果算力是货币,能源就是印钞机。关注核聚变(如 Helion)、小型模块化反应堆及高压输电企业。这是比硬件堆料更核心的价值捕获点。
- 拒绝粗暴对标:不要因为马斯克起诉 OpenAI 就认为参与方都难逃法律风险。对于投资人而言,这恰恰是分散风险的最佳时机——不要重仓单一神话。
- 警惕企业内的官僚体系:据 Altman 所言,硅谷很多公司被左翼意识形态侵蚀严重。投资应偏好那些由技术愿景而非公关话语驱动文化的团队。
-
针对创业者:
- 避开结构陷阱:Altman 明确表示“不推荐初创企业复制 OpenAI 的 Non-Profit to For-Profit 结构”。这是一种强烈的政策信号:监管机构开始整顿这种灰色地带的估值套利。
- 成为“AI 基座上的上层建筑”:不要试图在基础模型上通过烧钱翻越 Altman 建立的 $7T 堡垒。利基市场、垂直领域的强化学习、以及将 AI 软件化与硬件化结合的接口,是更可行的切入点。
- 改变人才画像:未来的工程师需要具备“底层的整体观”,Altman 提到虽然他现在是深度的垂直专家,但回想起以前“看全貌”时很有价值。创业者应寻找具备宽广技术视野而不仅仅是单一模型微调能力的人才。
信号强弱:
- 强信号:“计算将是未来最珍贵的资产”(即算力通胀论)、“AGI 将通过加速科学发现来定义”。
- 弱信号/推断:具体的 GPT-5 上线时间表(当然他肯定不会给)、短期内 AI 突破安全和逻辑瓶颈的确定性(目前看起来仍然只是一个愿望)。
6. 金句摘录
“The road to AGI should be a giant power struggle. The world should… Well, not should. I expect that to be the case.” (通往 AGI 的道路应该是一场巨大的权力斗争。世界不应该……等等,不是“应该”,我预期情况确实如此。)
“If we could look at it now [the current systems], maybe we’ve adjusted by the time we get there… I think that should be part of it [being more like the internet/Google search transition to AGI].” (如果让我们现在再看一眼当前的系统,也许当我们到达那一步时,我们的预期已经调整了……我认为这应该是 AGI 演变的一部分。) —— Altman 对 AGI 标准的动态定义
“I think it’s going to get a lot better with upcoming versions, but we’ll have to continue to work on it and we’re not going to have it all solved this year.” (我想接下来的版本会有明显提升,但我们还得持续努力,今年肯定无法彻底解决所有问题。) —— 对 AI 幻觉与对齐问题的现实审视
“I think there will come a point where that [safety]’s mostly what we think about, the whole company. And it’s not like you have one safety team.” (我认为将来这点将成为我们思考的全部重心,涉及整个公司。这不仅仅是设立一个安全团队就能解决的。) —— 揭示了安全问题从单部门负责制向全员责任制演变的行业趋势
“AGI is also not an ending. It’s closer to a beginning, but it’s much more of a mile marker than either of those things.” (AGI 也不是终点,而更像是一个起点,但它比那个终点更像是路标。) —— 重新定义了 AGI 的终极意义