Sam Altman: OpenAI CEO on GPT-4, ChatGPT, and the Future of AI (2023-03-25, gemini-2.5-pro)
1. 导读
在 GPT-4 发布引发全球热议的喧嚣时刻,OpenAI 的 CEO 萨姆·奥特曼(Sam Altman)选择与莱克斯·弗里德曼(Lex Fridman)进行了一场长达两个半小时的深度对话。这并非一次寻常的产品发布宣讲,而是一次罕见的、在技术浪潮之巅对未来方向的公开辩护与反思。奥特曼作为当前人工智能革命中最核心的掌舵者,其决策直接影响着技术演进的路径、万千开发者的生态位,乃至全球经济与社会结构的未来形态。这场对话的价值在于,它系统性地披露了 OpenAI 在面对技术能力失控、社会偏见、市场竞争等多重压力下的核心战略——“迭代式部署”。
对话发生在 GPT-4 刚刚震撼世界,而关于其潜在风险与社会冲击的讨论正达到沸点的关键节点。它试图回答一个根本性问题:当创造出一种可能超越人类智能的技术时,最负责任的方式是将其锁在实验室直到完美,还是在它尚不完美时就交到公众手中,共同试错、共同适应?奥特曼的回答不仅将影响开发者如何利用这一波技术红利、创业者如何寻找新的商业机会,更将塑造监管者和公众对 AGI(通用人工智能)的认知框架。然而,他所倡导的这种“在飞行中造飞机”的策略,究竟是通往安全未来的唯一现实路径,还是一场将全社会置于风险之下的豪赌?
2. 核心观点
奥特曼的核心世界观是:通往安全 AGI 的唯一现实路径,是通过“迭代式部署”(iterative deployment)——即在技术尚不完美、风险尚且可控时,就将其逐步释放给社会,让公众、产业和监管机构有时间适应、学习并共同塑造其发展。这一观点极具争议,因为它直接挑战了主张在理论上完全解决安全问题前应暂停或延缓超强 AI 开发的“安全原教旨主义”。奥特曼认为,将一个颠覆性的 AGI 一次性投放到毫无准备的世界,其冲击将是灾难性的。因此,当前看似激进的发布节奏,本质上是一种更为谨慎的、旨在降低未来系统性风险的长期战略。他赌的是,通过早期、频繁、小步快跑的互动,人类社会能够建立起应对更强大AI的“免疫系统”。
一、 RLHF 不仅是“安全对齐”,更是解锁模型能力的关键
奥特曼断言,强化学习与人类反馈(RLHF)的价值远不止于过滤有害内容或注入偏好,它更是将一个知识渊博但笨拙的“基础模型”(base model)转化为一个易于使用、感觉“有帮助”的产品的核心魔法。其底层逻辑是,大规模预训练赋予了模型广博的知识(knowledge),但 RLHF 通过相对少量的人类偏好数据(例如,在两个回答中选择更好的一个),教会了模型如何更好地理解意图、遵循指令、进行有益的对话,从而提升了其实用性和“智慧感”(wisdom)。ChatGPT 的成功就证明了这一点:其颠覆性并非源于模型能力的飞跃,而是 RLHF 和对话界面极大降低了使用门槛,让普通人也能轻易调用其潜在能力。
二、 “迭代式部署”是唯一负责任的 AGI 安全策略
他坚信,将 AI 技术发展过程公之于众,让社会逐步适应,是规避未来巨大风险的最佳方式。其逻辑在于,AGI 的社会经济冲击和潜在危险是无法在实验室里完全预知的。通过发布像 GPT-4 这样“深度不完美”但已足够强大的系统,OpenAI 能够借助全球用户的集体智慧,发现其未知的能力和缺陷(“红队测试”),并为社会提供一个缓冲期来发展新的规范、法规和适应性行为。奥特曼坦言:“我们想在赌注还小的时候犯错。” 这与一些安全研究者主张的“在发布前解决所有问题”形成鲜明对比,他认为后者是一种不切实际的幻想,只会导致未来某个时刻一个“完美”的 AGI 突然降临,引发无法控制的社会剧变。
三、 解决“偏见”的终极方案是用户控制,而非寻求“绝对中立”
面对关于模型偏见(如“Woke AI”)的批评,奥特曼承认 GPT-3.5 存在问题,但 GPT-4 已有显著改善。他进一步判断,试图创造一个让所有人都满意的、单一的“无偏见”模型是不可能的,因为“中立”本身就是一种主观判断。因此,真正的解决方案不是由 OpenAI 来定义唯一的“真理”,而是赋予用户更大的控制权。底层逻辑是将权力下放:OpenAI 负责设定一个非常宽泛、社会普遍接受的行为底线(如不产生暴力、仇恨内容),在此框架内,通过“系统提示”(System Message)等工具,允许用户根据自己的需求和价值观来“定制”模型的个性、风格和回答倾向。
四、 AGI 发展将呈现“短期、慢速起飞”形态,这是最安全的情景
在讨论 AGI 可能带来的“智能爆炸”(fast takeoff)风险时,奥特曼明确表达了他的预期和 OpenAI 的战略选择。他认为,最理想且最可能的情景是 AGI 的发展遵循“短时间线、慢速起飞”(short timelines, slow takeoff)的模式——即 AGI 会在相对较近的未来开始出现,但其能力提升和对社会的影响会是一个持续数年而非数天的渐进过程。OpenAI 的所有决策,包括迭代部署,都是为了促成并适应这种“慢速起飞”的局面。他对此的逻辑是,渐进式的变革为人类社会提供了适应和纠错的机会,而突变式的“快速起飞”则几乎没有应对空间,风险极大。
五、 模型参数规模并非核心指标,系统综合性能才是
针对外界对 GPT-4 参数量的狂热猜测(如“100万亿参数”的迷因),奥特曼明确表示,将参数数量作为衡量模型能力的唯一标准,就像 90 年代PC行业的“千兆赫兹竞赛”一样具有误导性。他强调,重要的是模型的综合性能和它能为用户解决什么问题,而不是某个单一的技术指标。其背后逻辑是,打造一个如 GPT-4 般的顶尖模型,是数据收集与清洗、模型架构、优化器设计、训练策略等数百个复杂环节“微小胜利的乘积效应”。过度关注参数量会忽视其他同样关键的创新维度,并可能导致行业陷入无效的军备竞赛。
这些观点共同构建了奥特曼的战略蓝图:通过 RLHF 提升产品可用性,以“迭代部署”的方式让社会安全地适应,用“用户控制”来化解偏见争议,并力求引导整个 AGI 进程走向“慢速起飞”的轨道,同时在内部研发上专注于综合性能而非单一指标。这是一个环环相扣、以现实主义和实用主义为核心的 AGI 发展哲学。
3. 批判与质疑
奥特曼的论述体系清晰且具有说服力,但他的一些核心前提和风险评估值得进一步审视。
首先,其“迭代部署”安全策略的基石是“赌注尚小”(stakes are low)这一假设。然而,这个假设的有效性正在迅速递减。GPT-4 已被证明能够通过人类图灵测试、在多种专业考试中击败多数人类,其滥用可能造成的社会危害(如大规模、个性化的虚假信息攻击,或加速恶意软件开发)已远非“小赌注”。该策略依赖于 OpenAI 发现和修复漏洞的速度能持续快于恶意行为者利用漏洞的速度,这是一个在开放环境中极具挑战性的动态博弈。对话中,奥特曼并未充分阐述当某个迭代版本的能力出现非线性跃迁,导致“赌注”一夜之间变得极高时,OpenAI 的应急预案是什么。
其次,关于通过“用户控制”解决偏见问题的方案,存在被理想化的倾向。它在理论上很优雅,但在实践中可能加剧信息茧房和群体极化。如果每个用户都能“定制”一个只符合自己世界观的 AI,这可能削弱社会层面的共识基础。此外,奥特曼将设定“宽泛底线”的责任归于一个模糊的“民主过程”或类似“美国制宪会议”的理想模型,这回避了当前谁来制定、谁来执行这些底线这一棘手的现实问题。在缺乏全球性治理框架的情况下,这个“底线”的定义权很可能依然掌握在 OpenAI 等少数科技公司手中,其决策过程和人选(如 RLHF 标注员的筛选)的偏见问题依然悬而未决。
再者,奥特曼对资本压力的抗性可能被低估。尽管他强调 OpenAI 的“上限利润”(capped-profit)结构能抵御纯粹的商业动机,但与微软数十亿美元的深度绑定,以及来自谷歌等全速追赶的竞争对手的市场压力,依然是巨大的。他提到“希望其他公司的善良天使能胜出”,这听起来更像是一种美好的愿望而非坚实的策略。在激烈的商业竞争中,保持对安全性的长期投入和战略定力,将持续考验 OpenAI 的治理结构和领导层。
最后,对话结束时,一个核心问题依然没有答案:我们如何判断一个模型何时强大到“不应再迭代式部署”?从 GPT-3.5 到 GPT-4,世界尚能勉强应对。但 GPT-5 或 GPT-6 呢?是否存在一个能力阈值,一旦跨越,渐进式适应的模式就会失效,任何公开部署都可能成为无法挽回的一步?奥特曼的框架似乎缺少这样一个明确的“熔断机制”或判断标准,这使得他的迭代策略在未来充满了不确定性。
4. 行业视野
这场对话为理解当前 AI 发展阶段提供了一个关键的坐标。
首先,它标志着 AGI 叙事从“边缘”走向“主流”。奥特曼回忆,2015年 OpenAI 成立时,谈论 AGI 被视作“疯狂”。而今天,这场对话的核心议题已经不再是“AGI 是否可能”,而是“我们应该如何管理其到来”。这印证了过去几年,以 Transformer 架构为代表的技术路线取得了惊人的成功,使得 AGI 从一个哲学概念转变为一个严肃的工程和战略问题。
其次,这场对话鲜明地勾勒出 AI 安全领域两大思想流派的对峙。一方是以埃利泽·尤德科夫斯基(Eliezer Yudkowsky)为代表的理论派,他们主张在没有找到可证明的对齐方案前,应极度谨慎甚至暂停超强 AI 的研发,认为迭代部署无异于玩火。另一方就是以奥特曼为代表的实践派,他们认为理论上的完美方案无法脱离实践而存在,唯一的出路是在真实世界中通过与技术的互动,逐步建立信任和控制。OpenAI 的策略,是这场思想辩论中最引人注目的社会实验。
再次,它与一段值得警惕的历史形成了有趣的呼应——社交媒体的崛起。十多年前,社交媒体平台也曾以“连接世界”、“赋予个体力量”的美好愿景迅速扩张,但其商业模式和算法设计却在无意中催生了虚假信息、社会极化和心理健康等一系列深远问题。奥特曼对“虚假信息”和“经济冲击”的担忧,表明他吸取了上一代技术革命的教训。然而,他提出的“用户控制”方案,也隐约回响着早期互联网自由主义的信念。历史的教训是,当一个强大工具被规模化部署后,其涌现出的社会动力学往往会远超创造者的预期和控制能力。
最后,奥特曼的言论挑战了“AI 发展是纯粹技术问题”这一根深蒂固的共识。他反复强调,RLHF 标注员的选择、偏见的定义、部署的节奏等,都是深刻的社会和政治问题。这推动了行业认知从“模型能力”为中心,转向“人与AI系统协同演进”为中心,预示着未来 AI 公司的核心竞争力不仅在于算法,更在于其治理结构、社会沟通能力和构建可信生态的智慧。
5. 启示与建议
这场对话强化了一个核心假设:AI 的价值释放和风险控制,正从“模型训练”这一后端环节,大规模地迁移到“人机交互与对齐”这一前端环节。
对开发者与产品经理:
- 从“调用 API”转向“构建反馈循环”: 未来的护城河不在于简单地将 GPT-4 接入产品,而在于为你的特定领域设计和构建独特的“微型 RLHF”系统。思考如何收集用户的隐式和显式反馈,并利用这些数据对模型进行微调或优化提示(prompt),创造出比通用 ChatGPT 更懂你所在领域、更有价值的体验。
- 将“可控性”(Steerability)作为核心产品特性: 与其追求一个完美的“默认”体验,不如将模型的“可定制性”作为产品设计的核心。善用并扩展“系统提示”这类功能,让用户(无论是个人还是企业)能够安全、方便地定义 AI 的角色、语气和行为边界,这本身就是一种强大的产品差异化。
对投资人:
- 重新评估“护城河”: 基础大模型的研发是资本密集型游戏,但真正的商业价值可能更多地体现在应用层的“对齐”和“数据飞轮”上。关注那些不仅能快速应用大模型,而且其商业模式本身就能产生高质量、领域特定的反馈数据,并能将其转化为模型性能优势的初创公司。
- 关注“工具链”而非仅关注“应用”: 随着提示工程、模型微调、安全评估等变得日益复杂,围绕大模型生态的“镐和铲”——即开发者工具、安全监控平台、专用数据集提供商——将迎来巨大机会。这些工具能够帮助成千上万的应用开发者更高效、更安全地利用大模型。
对创业者:
- 押注于“人机协同”的全新工作流: 不要仅仅把 AI 看作是自动化工具,而应将其视为人类专家的“能力放大器”。寻找那些目前由高技能专业人士主导、但其中包含大量可被 AI 辅助的重复性认知任务的领域(如法律、医疗、科研、编程),重新设计整个工作流程,创造出能实现 10 倍效率提升的“人+AI”协同解决方案。
- 重新审视“信任”作为商业模式的核心: 在一个 AI 生成内容无处不在的世界里,“可信度”将成为稀缺资源。可以探索建立能够验证、审核和认证 AI 生成内容的业务,或者打造以极高透明度和可靠性为卖点的、专注于特定垂直领域的 AI 服务。
结论强度说明: 奥特曼关于“迭代部署”是其核心战略的论断是强信号,这预示着 OpenAI 将继续以较快速度推出新模型。他关于“用户控制”是解决偏见最终方向的判断也是一个强信号,开发者和创业者应据此进行产品规划。然而,他对 AGI 能实现“慢速起飞”以及现有治理结构能抵御资本压力的判断,更多是基于当前观察的合理推断,其中包含着相当大的不确定性和风险。
6. 金句摘录
-
“We wanna make our mistakes while the stakes are low.”
- 中文意译: “我们希望在赌注还小的时候犯下错误。”
- 语境: 这句话是奥特曼为 OpenAI 备受争议的“迭代式部署”策略进行的核心辩护。他认为,与其在实验室里秘密研发一个完美的 AGI 然后一次性投向世界,不如现在就发布不完美的系统,让社会在风险可控的阶段学习如何应对,并共同发现问题。
-
“…if you hand people an AGI and that’s what they want to do, I wouldn’t have believed you.”
- 中文意译: “……如果你把一个 AGI 交到人们手里,而他们想做的就是这个(争论它对不同政治人物的正面描述有多少个字符),我是不会相信的。”
- 语境: 在谈到人们对 GPT 偏见的激烈争论时,奥特曼发出的感慨。这反映了他作为技术创造者的一种困惑与无奈:当一个拥有巨大潜能、可能改变人类未来的技术诞生时,公众的注意力却常常被相对细枝末节的政治正确问题所占据。
-
“I think it is dangerous to project creatureness onto a tool.”
- 中文意译: “我认为将生物性(或人格)投射到一个工具上是危险的。”
- 语境: 当被问及他为何总是用“它”(it)而非“他”或“她”来指代 AI 系统时,奥特曼给出了这个回答。这揭示了他一个重要的底层哲学:他坚持将 AI 定义为人类可控的工具,并警惕过度拟人化可能带来的误解、错误依赖甚至情感操纵的风险。