Keyboard shortcuts

Press or to navigate between chapters

Press S or / to search in the book

Press ? to show this help

Press Esc to hide this help

Yann Lecun: Meta AI, Open Source, Limits of LLMs, AGI & the Future of AI (2024-03-08, deepseek-chat)

1. 导读

当图灵奖得主、Meta首席AI科学家杨立昆(Yann LeCun)断言“自回归大语言模型(LLM)无法通往超人智能”时,他挑战的不仅是当前AI产业最炙手可热的范式,更是整个行业对“智能”本质的直觉。作为深度学习的奠基人之一,杨立昆的资格毋庸置疑,但他此次的论断远不止于技术路线之争,而是指向一个更根本的哲学问题:智能是否必须“具身”于物理现实?这场对话之所以关键,恰逢LLM的“涌现”能力引发狂热与恐惧交织之际,杨立昆的“唱反调”迫使我们必须思考:如果LLM的辉煌只是通往通用人工智能(AGI)道路上的一座中途驿站,那么下一站的路标是什么?

他不仅抛出问题,更给出了Meta正在全力押注的答案:联合嵌入预测架构(JEPA)。与此同时,作为开源运动的旗手,他将技术路径的选择与权力分配、文化多样性乃至民主制度的未来紧密捆绑。这场对话的结论,将直接影响开发者选择研究课题的方向、投资人评估技术路线的框架,以及政策制定者权衡开放与监管的尺度。当一位顶尖科学家以如此鲜明的立场,将技术批判上升为一场关于AI未来社会形态的宣言时,我们无法忽视其间的张力与深意。

2. 核心观点

杨立昆的核心世界观是:真正的、类人的智能必须建立在对物理世界的理解之上,而当前以自回归LLM为代表的“生成式AI”路径存在根本性缺陷,无法独立达成此目标。这一论断的争议性在于,它直接挑战了LLM所展现出的惊人语言能力即代表“理解”的普遍直觉,并预言了当前产业狂欢可能遭遇的天花板。

智能的根基在于感知,而非语言。 杨立昆断言,LLM仅从文本中学习,缺失了智能最关键的基础——对物理世界的“常识”理解。他的底层逻辑基于一个数量级对比:一个四岁孩童通过视觉接收的信息量(约10^15字节)远超所有公开文本数据的总和(约2×10^13字节)。人类和动物的早期学习与语言无关,而是通过高带宽的感官输入与交互来构建世界模型。LLM在通过律师考试的同时,却无法像十岁孩子一样学会收拾餐桌,这凸显了莫拉维克悖论(Moravec‘s paradox)在AI时代的延续:对人类而言困难的高层次推理对机器很容易,而人类觉得不费吹灰之力的物理常识对机器却难如登天。

自回归生成是“系统一”本能,而非“系统二”思考。 杨立昆认为,LLM逐词预测的生成方式,类似于人类不假思索的“系统一”快速反应。它没有“计划”答案的过程,只是基于统计模式检索并输出。真正的推理和规划(“系统二”)需要系统在输出前,在一个与具体语言脱钩的抽象“思想”空间中进行优化和演算,其计算成本应与问题的复杂程度成正比,而非像LLM那样固定。这种“先思考,后表达”的架构,才是高级智能的蓝图。

生成式模型在视觉领域已被证明失败,联合嵌入(JEPA)是出路。 基于其团队在Meta AI(FAIR)长达十年的探索,杨立昆断言,试图通过预测视频的每一个像素(生成式方法)来学习世界模型是一条死胡同。因为世界过于复杂且充满不可预测的细节。成功的路径是JEPA:系统不再试图重建原始输入(如图像),而是学习预测其抽象表征。编码器会主动过滤掉树叶晃动等不可预测的噪声,只保留可预测的、任务相关的抽象信息。这种方法在V-JEPA等模型中已初见成效,能够学习到视频的有效表征,甚至能判断一段视频在物理上是否可能。

“目标驱动”的AI架构是实现可控、可规划智能的关键。 杨立昆勾勒的未来AI架构是一个“能量模型”:系统拥有一个可评估答案与问题匹配度(能量值)的函数。在推理时,系统通过在连续的抽象表征空间中进行梯度下降等优化,找到一个能最小化能量值的“思想”,再将其转化为语言输出。这种架构的优势在于,优化过程独立于输出语言,且目标函数中可以内置“护栏”(如服从人类、避免有害输出),从而实现比当前LLM+RLHF(基于人类反馈的强化学习)更根本、更高效的可控性。

开源是抵御权力集中、保障AI多样性的唯一途径。 杨立昆将技术开源问题提升到民主制度存续的高度。他认为,比“AI毁灭人类”更迫切的危险是,未来由少数几家西海岸公司控制的私有AI系统将成为全人类信息饮食的单一来源。这将对文化多样性、地方价值观和多语言生存构成威胁。开源基础模型允许各国政府、企业、社区基于自身数据、语言和价值观进行微调,从而催生一个多样化的AI生态系统。这是对抗意识形态偏见、技术垄断和数字殖民的根本方案。

AGI不会是一个“事件”,而是渐进过程,且无需过度恐惧。 杨立昆驳斥了“AI末日论”。他认为,AGI(他更倾向于称其为“高级机器智能”)的发展将是渐进的,从猫狗水平的智能逐步向上提升。在此过程中,人类会为AI设计护栏,且会出现“好AI”对抗“坏AI”的制衡局面。AI不会像科幻中那样因“智能”而天然产生统治欲望,这种欲望是社会性动物特有的硬编码,并非智能的必然产物。将AI安全类比为航空发动机安全更为恰当——通过数十年的渐进式工程改进实现高可靠性,而非寻找一个一劳永逸的数学安全证明。

这些观点构成了一个逻辑严密的论述体系:从批判LLM缺乏物理根基出发,提出以JEPA学习世界模型的技术替代方案,再通过目标驱动架构实现推理与规划,最终将这一切置于开源生态的护佑之下,以确保技术进步服务于人类整体的福祉与多样性,而非加剧权力垄断。其核心张力始终围绕“抽象表征”与“具体生成”、“集中控制”与“开放生态”这两组对立展开。

3. 批判与质疑

杨立昆的论述体系锐利且自洽,但作为外部审视者,必须指出其依赖的若干未经验证的前提和被有意无意忽略的风险。

首先,“语言不足以承载世界模型”这一核心前提仍存争议。杨立昆与主持人Lex Fridman的辩论触及了关键点:语言是否是高度压缩的、蕴含了足够多“潜台词”和物理常识的信息载体?尽管杨立昆以数据量对比作为论据,但信息的“密度”与“冗余度”是两回事。语言的非冗余性可能恰恰迫使模型进行更深层次的抽象和逻辑推理,以维持上下文的一致性。LLM在缺乏明确物理经验的情况下所展现出的某些推理能力,是否暗示了从语言中“逆向工程”出世界模型的可能性?杨立昆对此断然否定,但这更多是基于其学术信念而非确凿的反证。

其次,对JEPA路径的乐观可能低估了其工程复杂性。虽然I-JEPA、V-JEPA在表征学习上取得了鼓舞人心的成果,但从学习好的视频表征,到形成一个可用于复杂规划(如驾驶汽车、收拾餐桌)的、具有层次结构的、能预测行动后果的世界模型,中间仍有巨大的鸿沟。杨立昆自己也承认,分层规划是尚未解决的重大挑战。将宝押在一条虽前景光明但尚未走通的主干道上,是否会让Meta在激烈的短期应用竞争中错失机遇?

再者,开源万能论忽视了其潜在的负面效应。杨立昆将开源视为解决偏见、垄断和安全的灵丹妙药。然而,开源同样可能降低恶意行为者获取强大AI能力的门槛。尽管他论证了制造生化武器等需要现实世界的专业知识,但开源模型在制造虚假信息、进行自动化网络攻击、定制化心理操控工具等方面,可能显著提升作恶的效率和规模。此外,开源导致的AI系统“巴尔干化”——不同价值观社区使用各自微调的、回音壁式的AI助手——是否会加剧社会撕裂而非促进理解?这种多样性是健康的百家争鸣,还是危险的极化温床?

最后,对“AI末日论”的彻底驳斥可能过于轻率。杨立昆将担忧者斥为“末日论者”(Doomer),并归因于其“人性本恶”的悲观假设。这种二元对立的叙事简化了问题的复杂性。即使认同AGI是渐进发展且可控的,但在技术加速迭代的背景下,社会、经济、政治系统能否以同样的速度适应和建立有效的治理框架?权力制衡(好AI vs 坏AI)的前提是技术扩散的均衡,但如果某个行为体在关键突破上取得暂时但决定性的领先呢?历史表明,技术扩散并非总是即时和平等的。

4. 行业视野

杨立昆的立场并非孤例,而是代表了AI学界长期存在的“具身认知”派与“纯粹符号”派之争在深度学习时代的最新篇章。他的观点与Rodney Brooks等机器人先驱的论述一脉相承,都强调物理交互对智能的根本性意义。同时,他对LLM局限性的批判,也与Gary Marcus等对深度学习持批评态度的学者部分呼应,尽管他们的解决方案截然不同。

这场对话直接挑战了当前以OpenAI、Google等为首的产业界将LLM作为AGI核心甚至唯一路径的“主流共识”。杨立昆的论断,可以看作是对“缩放定律”(Scaling Law)盲目乐观主义的一次重要纠偏。他提醒业界,无限堆叠算力和数据可能遇到一个由架构本身决定的天花板,下一个阶跃需要根本性的架构创新,而非单纯的规模扩展。

从历史维度看,杨立昆推动的开源运动,正在重演软件领域Linux对抗Windows、互联网领域开放协议对抗封闭花园的故事。他将AI基础模型比作新时代的“印刷术”,而将主张严格控制AI的观点比作当年奥斯曼帝国为保护抄写员行会而禁止阿拉伯语印刷机的历史,这一类比极具冲击力。这预示着,AI的发展道路选择,将是一场关于知识权力分配、文化主权和技术民主化的深刻社会博弈,其影响将远超单纯的技术范畴。

5. 启示与建议

这场对话首先挑战了一个普遍假设:“LLM的流畅性等于深刻的理解力”。它强化了另一个假设:“智能的多样性源于学习数据的多样性,而开源是保障这种多样性的基石”

对AI研究者与工程师

  1. 重新审视研究方向:如果认同杨立昆的判断,那么将大量资源投入于单纯扩大自回归LLM的规模可能边际效益递减。应积极关注并投入非生成式、基于联合嵌入的表征学习、世界模型构建以及分层规划等前沿领域。这些领域目前对大规模算力的依赖相对较低,更适合学术机构和初创公司进行创新。
  2. 探索混合架构:在JEPA等新架构成熟之前,务实的选择是探索LLM与具身模型(如JEPA学得的模型)的深度融合。将LLM作为高层任务规划与符号推理的“大脑”,而将具身模型作为理解物理世界、执行具体动作的“小脑”,可能是通往实用高级智能的可行过渡路径。

对投资者与创业者

  1. 分散技术押注:在追捧LLM应用的同时,应保持对下一代AI架构(如目标驱动AI、世界模型)的敏锐度。投资那些致力于解决LLM根本性缺陷(如幻觉、缺乏规划、无物理常识)的初创公司,它们可能代表未来的突破点。
  2. 关注开源生态中的机会:Meta等公司开源基础模型,正在创造一个庞大的下游微调和服务市场。寻找在垂直领域(特定行业、特定语言文化区域)拥有高质量数据、并能基于开源模型打造专属AI助手或解决方案的创业公司,具有明确的商业价值。

对政策制定者

  1. 优先支持开源与多样性:在制定AI政策时,应将促进开源生态和AI系统多样性作为核心目标之一,这关乎技术民主、文化保护和长期竞争力。可以通过资助多语言AI研发、建立公共AI数据池、为基于开源模型的中小企业提供支持等方式实现。
  2. 监管应聚焦于行为而非锁死技术:与其试图通过许可证制度将前沿AI研发“锁在保险箱”,不如将监管重点放在AI系统的具体应用行为和产出上(如防止欺诈、歧视性决策),并为不同应用场景设定清晰的责任框架。这为开源创新留下了空间,同时管控了实际风险。

需要明确的是,杨立昆关于“LLM存在根本局限”和“JEPA是正确方向”的论断,目前仍属于基于长期研究经验的强信号假说,而非已被完全证实的结论。而他关于开源带来多样性并最终利于民主的论述,则是一个有力的价值倡导和合理推断,其实际效果将受到政治、经济等多重因素影响,需谨慎观察。

6. 金句摘录

“I see the danger of this concentration of power through proprietary AI systems as a much bigger danger than everything else.” (我认为,通过私有AI系统实现的这种权力集中的危险,比其他所有危险都要大得多。) 语境:在讨论AI偏见与管控时,杨立昆将辩论焦点从“AI安全”转向“权力垄断”,认为封闭的AI系统对民主和多样性的威胁远大于臆想中的AI灭绝风险。

“LLMs can do none of those or they can only do them in a very primitive way… they don’t really understand the physical world.” (大语言模型一样也做不了,或者只能以非常原始的方式做……它们并不真正理解物理世界。) 语境:在列举理解世界、记忆、推理、规划这四项智能关键特征时,杨立昆彻底否定了当前LLM在这些方面的能力,直指其核心缺陷。

“We’re fooled by their fluency… We just assume that if a system is fluent in manipulating language, then it has all the characteristics of human intelligence, but that impression is false.” (我们被它们的流畅性所欺骗……我们仅仅因为一个系统能流畅地操纵语言,就假定它拥有人类智能的所有特征,但这种印象是错误的。) 语境:针对LLM通过图灵测试的假象,杨立昆指出人类容易将语言能力与通用智能划等号,这是一种认知误区。

“If you’re really interested in human level AI, abandon the idea of generative AI.” (如果你真的对人类级别的人工智能感兴趣,那就放弃生成式AI的想法吧。) 语境:在总结了十年视觉生成模型研究的失败后,杨立昆给出了一个极其鲜明甚至绝对化的技术路线建议,与其一贯风格相符。

“It’s not going to be an event. It’s going to be gradual progress… I’ve been hearing people for the last 12, 15 years claiming that AGI is just around the corner and being systematically wrong.” (它不会是一个“事件”。它将是渐进的……过去12到15年里,我一直在听人们声称AGI近在咫尺,但他们系统性地错了。) 语境:驳斥“AI奇点”论时,杨立昆强调AGI的发展是渐进工程,并嘲讽了长期存在的过度乐观预测。