萨姆·奥特曼:OpenAI 首席执行官谈 GPT-4、ChatGPT 及 AI 的未来 (2023-03-25, deepseek-chat)
1. 导读
当萨姆·奥特曼在2015年底宣布成立OpenAI并致力于研发通用人工智能(AGI)时,他和他那看似“疯狂”的团队遭到了业内权威人士的公开嘲讽与私下贬损。七年半后,作为GPT-4、ChatGPT等划时代产品的缔造者,奥特曼已无需再为“AGI是否可能”而辩护,但他和他的公司正面临着一系列更为复杂、更具张力的挑战。这期播客的价值,在于它捕捉了OpenAI从技术先驱到行业巨擘的转折点上,其掌舵者最坦诚的思考。奥特曼不仅分享了GPT-4背后的技术哲学——从“数据压缩”到“推理引擎”的跃迁,更直面了AI规模化部署中最棘手的“对齐”难题、社会偏见、权力分配以及AGI可能带来的生存风险。这场对话的核心,是理解一个旨在“安全地”创造超级智能的组织,如何在技术狂飙、商业竞争、公众审视与伦理拷问的多重压力下,定义自己的行动路径。奥特曼的答案,将深刻影响每一位开发者、企业家、政策制定者,乃至所有即将与AI深度共存的普通人。
2. 核心观点
奥特曼的核心世界观是:通向AGI的路径是一条持续加速的指数曲线,而非一个突变的奇点。因此,最安全、最负责任的方式是“在公开中迭代部署”——即在AI能力尚弱时,就将其推向世界,让社会与之共同学习、适应并塑造其发展轨迹,从而避免未来因能力突然爆发而措手不及。这一路径充满了内在张力:它既是风险缓释策略,本身也构成了新的风险源。
对齐与能力是同一枚硬币的两面。 奥特曼断言,人们常将AI的“对齐”(使其符合人类意图)与“能力”视为正交的两个向量,但事实并非如此。以人类反馈强化学习(RLHF)为例,它不仅是让模型更安全、更符合人类价值观的“对齐”技术,更是让模型变得“更可用”、能力表现更出色的关键。更好的对齐技术往往能直接催生更强大的模型,反之亦然。这种模糊性意味着,纯粹出于安全考虑的研发,很可能同时也在为能力的下一次飞跃铺路。
“偏见”问题无终极解,出路在于用户可操控性。 奥特曼承认,ChatGPT早期版本(如基于GPT-3.5的版本)存在明显的偏见问题,而GPT-4在这方面已有显著改善。但他从根本上否定了存在一个让所有人都满意的、“绝对中立”的模型的可能性。他认为,解决方案不是由OpenAI或任何单一团体来定义“正确”的价值观,而是将控制权下放给用户。GPT-4引入的“系统消息”(system message)功能,正是朝这个方向迈出的关键一步,允许用户在一定范围内自定义AI的行为风格和响应边界。
AGI将首先作为人类能力的放大器,而非独立的行动者。 奥特曼最兴奋的图景,并非一个脱离人类、自行其是的超级智能,而是一个能极大增强人类意志与创造力的终极工具。他以编程为例:GPT-4并未取代程序员,而是通过对话式交互,将程序员的效率提升了十倍,将人类从繁琐的“样板代码”中解放出来,专注于真正具有创造性的核心构思。这种“人机协作反馈循环”的模式,是他眼中AI短期内最具变革性的应用范式。
短期最现实的危险并非“觉醒的AI”,而是大规模滥用与社会失序。 当外界热衷于讨论超级智能“觉醒”并毁灭人类时,奥特曼指出,更紧迫且确定的风险来自现有能力的滥用。例如,大规模、低成本生成的虚假信息可能彻底扰乱舆论场和地缘政治;AI引发的经济冲击(如某些岗位的快速消失)可能超出社会承受能力。他特别提到,开源且缺乏安全控制的LLM即将大量出现,这使监管和防御变得异常困难。
OpenAI的“封顶盈利”结构是其抵御资本无限扩张冲动的护城河。 奥特曼解释了公司从非营利组织转向“封顶盈利”(capped-profit)架构的初衷:纯粹的非营利模式无法筹集AGI研发所需的巨额资本,而纯粹的利益驱动又可能导致危险的短期行为。目前的架构确保投资者和员工只能获得固定回报,超额利润全部归属非营利实体,且非营利实体拥有绝对控制权。奥特曼直言,他担心那些没有类似约束、追求无限价值捕获的公司在AGI竞赛中的行为。
这些观点构成了一个内在统一的行动逻辑:通过迭代部署与社会共学,在能力提升的同时探索对齐方案;通过赋予用户控制权来化解价值观冲突;通过独特的公司治理结构来平衡资本动力与长期使命;最终目标不是取代人类,而是创造一个让人类福祉得到指数级提升的世界。然而,这条路径的每一步都建立在“可控的慢起飞”这一核心假设之上。
3. 批判与质疑
奥特曼的论述体系清晰且具有说服力,但其有效性高度依赖于几个未经充分论证或可能过于乐观的前提。
首先,“迭代部署”作为安全策略的有效性存疑。这一策略假设,在AI能力较低时暴露问题,社会就有足够的时间和智慧来建立规范、完善技术。然而,AI能力的增长可能并非线性平滑,而是存在难以预测的“相变”。正如GPT-3到ChatGPT的体验跃升所展示的,某些关键突破(如RLHF)可能让系统的“可用性”和“智能感”发生质变。如果未来出现类似的“能力台阶”,社会可能根本没有一个渐进的适应期。此外,开源模型的泛滥可能使得任何基于“可控部署”的安全设计在事实上失效。
其次,将“价值观仲裁权”下放给用户是一个理想化方案,但忽略了系统性风险。允许用户通过“系统消息”定制AI的言行,固然能满足个性化需求,但也可能催生大量极端化、强化偏见的“信息茧房”AI。当无数个被定制来散布仇恨、阴谋论或操纵信息的AI在社交媒体上互动时,其集体效应可能摧毁公共对话的根基。奥特曼希望AI能带来“细微差别”(nuance),但个性化工具也可能加剧社会的撕裂。
再者,奥特曼对“人机协作”美好未来的描绘,可能低估了经济转型的阵痛和社会心理冲击。他承认客服等工作可能很快被大量替代,但认为社会总能创造出难以想象的新工作,并且人们工作的意义将转向“创造性表达”。这种技术乐观主义的历史观,忽视了结构性失业可能带来的长期社会痛苦、身份认同危机和政治动荡。即便最终结果光明,过渡期的代价由谁承担、如何缓冲,仍是悬而未决的核心问题。
最后,OpenAI的治理结构是其“秘密武器”,但也可能成为其阿喀琉斯之踵。“封顶盈利”和董事会控制权在理论上隔离了资本的无序扩张,但随着公司规模、影响力和与微软等商业巨头的绑定日益加深,其决策是否能始终保持独立和远见?当面临激烈的商业竞争(如与谷歌的竞赛)时,对“安全”和“审慎”的承诺是否会向“速度”和“市场份额”妥协?奥特曼个人的信念和公司的文化目前是防火墙,但这并非制度性保障。
4. 行业视野
奥特曼的访谈清晰地勾勒出AI行业当前的核心矛盾:“有效加速主义”与“审慎减速主义”的路线之争。 OpenAI的“迭代部署”路径,实际上是在两者之间寻求一条中间道路:它承认并拥抱能力的加速进步,但试图通过早期介入和社会化学习来为这股加速力安装“方向盘和刹车”。
这与Eliezer Yudkowsky等“人工智能安全”运动先驱的担忧形成了鲜明对比。后者认为,对齐问题是如此困难,以至于一旦超级智能出现,人类将毫无胜算,因此必须不惜一切代价延缓或阻止其诞生。奥特曼虽然尊重这些担忧,但认为其理论建立在深度学习兴起之前的认知上,且未充分纳入从技术实践中获得的反馈。这场辩论的本质,是对“智能爆炸”的速度和可控性的根本性分歧。
同时,OpenAI的路径也与大型科技公司(如谷歌、Meta)传统的“实验室研发-产品化”模式不同。后者往往在技术相对成熟后才推向市场,而OpenAI则选择在技术仍显“笨拙”和“充满缺陷”时就公之于众。这种“在公开中失败”的勇气,源于其非典型的使命和治理结构,也反过来重塑了行业竞争和公众期待的节奏。
从更长的历史维度看,这场对话呼应了所有通用目的技术(GPT)诞生时伴随的“创造性破坏”阵痛。正如工业革命摧毁了手工业却创造了工厂体系,信息技术消灭了中层管理岗位却催生了知识经济,AI带来的冲击是这一历史规律的延续和加速。奥特曼的思考,正是试图为这场前所未有的加速冲击,预先设计一个更具包容性和韧性的社会适应框架。
5. 启示与建议
这场对话最值得重新审视的假设是:AI的安全与伦理问题主要是一个“技术对齐”问题。 奥特曼的实践表明,它同样是一个“社会对齐”和“治理对齐”问题。技术方案(如RLHF)必须与用户赋权、公司治理、行业协作乃至全球监管相结合。
- 对开发者与产品经理:停止将AI视为一个需要“一次性调教好”的黑箱。转而设计可引导、可纠错、可解释的交互系统。重点投入于构建能让用户清晰表达意图、并能理解AI决策过程的界面与工具链。例如,深入探索“系统消息”之外的、更丰富的模型“可操控性”接口。
- 对投资人:关注那些在治理结构上有独特设计的AI公司。单纯的算法优势可能被快速追赶,但一个能长期平衡商业压力与安全使命的董事会和股权结构,是更深的护城河。同时,警惕那些在激烈竞争中可能为追求速度而放松安全标准的团队。
- 对创业者:不要在“复制一个更便宜的GPT”上内卷。奥特曼暗示,未来开源LLM将泛滥。真正的机会在于两个方向:一是基于现有大模型,构建解决特定垂直领域深度问题的应用层,尤其是那些能形成“人机协作闭环”的场景;二是探索AI治理与安全工具的创业机会,例如检测AI生成内容、评估模型偏见、或为中小企业提供合规的AI部署方案。
奥特曼关于“对齐与能力协同进化”以及“短期滥用风险大于生存风险”的判断,基于OpenAI的一手实践,是强信号。而他关于“慢起飞”和“社会能平稳适应”的预期,则更多是基于信念和希望的合理推断,在制定长期战略时应谨慎对待。
6. 金句摘录
-
“We have been a misunderstood and badly mocked org for a long time… people thought we were batshit insane.” (“我们曾是一个长期被误解和狠狠嘲笑的机构……人们觉得我们疯了。”) 语境:奥特曼回顾OpenAI在2015年宣布致力于AGI研发时,所遭遇的来自主流AI学术圈和工业界的蔑视与排挤。
-
“I think one thing that is not that well understood about creation of this final product… is that the number of pieces that have to all come together… There’s quite a lot that goes into it.” (“我认为关于创造这个最终产品,一个没有被充分理解的事情是……有多少个环节必须全部协同工作……这其中包含了相当多的东西。”) 语境:他强调GPT-4的成功并非源于某个单一突破,而是数据收集清洗、架构设计、训练优化、对齐调校等数百个复杂环节的“小胜”累积相乘的结果。
-
“I think a lot of the predictions about AI, in terms of capabilities, in terms of what the safety challenges and the easy parts are going to be, have turned out to be wrong.” (“我认为很多关于AI的预测,无论是关于能力的,还是关于哪些安全挑战容易、哪些困难的,结果都被证明是错的。”) 语境:在回应Eliezer Yudkowsky等对AI生存风险的极端担忧时,他指出早期理论预测需要根据技术发展的现实不断更新,暗示不能完全依赖纯思辨的推演。
-
“The current worries that I have are that they’re going to be disinformation problems or economic shocks or something else at a level far beyond anything we’re prepared for. And that doesn’t require super intelligence…” (“我当前的担忧是,将会出现虚假信息问题或经济冲击,或其他一些我们远未做好准备的事情。而这并不需要超级智能……”) 语境:他将公众注意力从遥远的“AI觉醒”叙事,拉回到已迫在眉睫的、由现有技术能力引发的社会性风险上。
-
“We want to make our mistakes while the stakes are low.” (“我们想在代价还低的时候犯错。”) 语境:这是对OpenAI“迭代部署”哲学最精炼的概括——通过早期、公开的试错,让社会和技术在风险可控的情况下共同学习,为应对未来更强大的AI积累经验和韧性。