Aravind Srinivas:Perplexity CEO 谈 AI、搜索与互联网的未来 (2024-06-20, glm-4.7-flash)
1. 导读
这场对话的核心张力在于“书写者的特权”与“浏览者的习惯”之间的博弈。作为曾经的 DeepMind 和 OpenAI 科研人员,Perplexity CEO Aravind Srinivas 并非在 proposing(提议)一个仅仅是更好用的搜索引擎,而是在尝试利用生成式 AI 的能力,彻底重构互联网的信息分发逻辑。他指出了答案对齐商业利益的陷阱——当你追求完美的学术式引用时,你就难以在充斥着广告点击机制的流量游戏中生存。
这正是当下最危险的信号:Google 的护城河不仅是链接索引,更是无法被撼动的极高利润率广告模型。Aravind 提出的质疑不仅是关于技术的优劣,更是关于互联网文明未来的走向——我们是接受一个被商品化的、只有导向消费端链接的信息世界,还是迈向一个基于求知欲、强调溯源与研讨的“知识发现”生态?
Perplexity 能否挤身万亿市值俱乐部的关键,不在于它比 Google 快百分之几,而在于它能否证明“永远不否认用户的懒惰”比“提供一万个选项”更值钱。虽然 it’s inception 般的创业故事充满了不可避免的傲慢(手握隐秘文本注入研究),但其提出的“Inference Compute(推理计算)”是通往 AGI 的真正瓶颈,这一论点足以改变后续十年的算力投资逻辑。
2. 核心观点
Aravind Srinivas 的世界观建立在两个对立面上:一是 Google 相对论式的成功路径与 Perplexity 的异类哲学;二是“通用模型预训练”与“迭代式推理(Inference Compute)”之争。他的核心主张是:互联网的本质价值属于“知识”,而非“流量”,未来的垄断将属于那些能将大规模算力转化为“自主性探究”的人。
-
答案优于链接:商业模式的零和博弈 Aravind 断言 Google 的 AdWords 模型是过去 50 年最伟大的商业发明,但这恰恰是 Perplexity 无法复制其逻辑的原因。Google 目前的机制是用海量链接作为广告位,只有高点击才有高回报。 底层逻辑:这引出了 Bezos 的名言“你的利润就是我的机会”。对于拥有巨额广告现金牛的 Alphabet 来说,任何取代链接点击的商业单元都是不明智的(因为不仅分食流量,还侵占高利润广告位)。 背书:演讲中详细比较了延迟、个性化体验(如预测用户想穿什么),指出回答类产品的交互体验天生优于列表类产品。 张力:Perplexity 选择不直接与 Google 打交道,甚至故意不展示部分链接,赌注在于随着模型能力提升,幻觉率会呈指数级下降,链接将变得不再必要。
-
互联网的“引用”机制决定了模型的真理度 Srinivas 认为人际关系的复杂性与科学结论的严谨性都需要“引用”机制来锚定。当前的 LLM 存在“两张皮”现象:前训练阶段的海量无监督学习(吃掉所有人类文本)实际上是一种记忆而非推理;而真正能解决具体问题的能力来自后训练阶段的 RAG(检索增强生成)。 底层逻辑:学术写作的一个核心原则是“每一句话都需要参考文献”。他将这一原则引入产品,要求 AI 不仅要回答,还要为万分之一的问题来源背书。这是目前解决 AI 幻觉最现实的路径,而非单纯依靠更聪明的模型。 背书:Perplexity 的产品设计和核心功能正是基于此——Citations(引用)、Source tags(来源标签),以及在用户输入模糊时强制 AI 从人工撰写的网页中提取信息。 张力:他承认这极其困难,因为主观的、被时间扭曲的来源依然会被 AI 错误抓取,这构成了 RAG 架构的脆弱性。
-
“AI 完备性”:飞轮效应的真谛 Perplexity 的产品哲学被 Srinivas 定义为“AI-complete”。这意味着使用产品的人越多,产生的数据质量越高,模型表现越好。 底层逻辑:除了 Google 搜索和自动驾驶外,大多数行业的“再训练数据”与用户使用量往往是背离的。例如,开发者写代码留下的废弃数据不会帮助 AI 变得更强,但使用 Google 搜索的人越多,语义关联越紧密。 背书:对比了 GitHub Copilot 和 Perplexity,证明了当 AI 成为交互介质本身时,数据的飞轮效应才能建立。 张力:这解释了他为何坚持做“Answer engine”而非单纯的“Search wrapper”——试图占据认知世界的入口,哪怕是牺牲短期的即时性。
-
推理不再是参数的附属品,而是算力的产物 对于 AGI 的实现路径,Srinivas 持有尖锐但基于技术的看法。他觉得依赖“更多参数”是低效的 brute force。 底层逻辑:真正的智能进步在于“Inference Compute”。即让同一个庞大的模型,在面对同一个问题时,通过迭代、规划、自我反思(Chain of Thought)来消耗更多算力得出答案。从 30% 到 80% 的数学题正确率提升,可能不需要训练新模型,只需要贿赂模型多算一会儿。 背书:提到了他和团队最新的 Star (Self-Taught Reasoner) 论文,证明了让模型在错误答案中也监督自己学习的可行性。 张力:这实际上描绘了一个奇点场景——未来的 AGI 不一定更聪明,而是更贪婪地“吃”算力,直到一个大算力俱乐部垄断了真理的制造权。
3. 批判与质疑
尽管 Aravind 的分析极具穿透力,但对话中也暴露了一些“幸存者偏差”或未能触及的深层次矛盾。
首先,“答案引擎”的特权地位未经验证。他假设当模型足够好时,用户会放弃点击链接。但现实很有趣,用户往往不仅想要答案,还想确认答案的可靠性,而链接是可以点击、跳出多重语境的“活的证据”。在法律、医疗等高风险领域,开箱即用的答案往往不及链接带来的可控验证感坚定。
其次,数据防线脆弱。演讲中提到的“Answer Engine Optimization”手段——在网页中通过不可见文本哄骗 AI ——听起来像是技术黑产,而非工程挑战。如果网站主人改变一点点 CSS 代码、或利用视角避开 AI 抓取,Perplexity 的“真理”大厦就会倾塌。这证明了目前虽然 AI 能够预训练,但在面对具体的、恶意的 Web 渲染工程时,依然如同凑数的斥候。
再者,外包的隐忧。Srinivas 反复强调 Perplexity 是模型中立者,这看似聪明,实则保留了最大的不确定性。如果 OpenAI 关闭接口或涨价,Perplexity 就失去了灵魂。这种架构在现代 SaaS 时代非常脆弱,除非它真的能训练出超越 GPT-4o 的模型,否则始终是一个拿着自己 DNA 就去求别人的“蛋白质工程公司”。
最后,对人性的过度简化。Srinivas 将人类追逐知识视为“消 dopamine hit”(满足感),认为人性趋同。但他忽略了信息的“隐私性”和“对抗性”。人们有时搜索是为了确认某种倾向以获得群体认同(例如极端的政治观点搜索),Perplexity 引用多源的“客观答案”可能反而打破了这种心理安抚,导致用户流失。
4. 行业视野
将视角拉高,这场对话折射出正在发生的“互联网遗产竞赛”。
与 Google 的宿命轮回: Google 创立的信条是“Organizing the World’s Information”(组织全球信息)。Srinivas 的愿景是“Organizing the World’s Knowledge”(组织全球知识)。历史在分裂:Google 选择了链接(社会属性),Perplexity 选择了引用(学术属性)。Google PageRank 的伟大在于发现了文本之外的社会信号(超链),而 Perplexity 正在试图验证“引用”(学术超链)是否是比“超链接”更好的社会信任信号。如果未来 AI 时代的流量税是由“可信度”而非“相关性”决定,那将是知识谱系的一次彻底篡位。
开源浪潮下的矩阵容器战: 对话中多次提及 OpenAI、Meta(Llama 3)的博弈。这本是一场模型技术的战争,但受限于成本,正逐渐演变为算力的战争。Srinivas 提到“百万 H100 算力中心”的构想,实际上是在描绘一个**“基于算力的新封建主义”**。即不是代码决定胜负,而是谁能建造拥有 100 万张 H100 的数据中心,谁就能决定接下来的三五年谁能进行大规模的“Reasoning”吞吐。这对于英伟达来说是绝对的利好,但对于纯软件公司来说,发出了一记警钟:如果不垂直整合算力或在软件本身寻求颠覆性突破,企业终将沦为云服务厂商的算力租客。
Web 1.0 -> Web 2.0 -> Web 3.0(认知版): Yahoo(目录分类)-> Google(链接抓取)-> Perplexity(语义答案)。这不仅仅是产品的迭代,更是对人类认知方式的改造。当用户不再需要“跳转”,不再需要“阅读”,人类的大脑将进化为单纯的“填空者”。这挑战了“批判性阅读”的基础——毕竟,如果你只信奉引用的权威性,你可能会失去独立怀疑的能力。
5. 启示与建议
本场对话重塑了哪些假设? 它削弱了“通过大量数据训练出万能模型就能解决一切问题”的假设;强化了“算力作为推理工具”在未来的绝对统治地位;同时否定了“搜索作为流量分发中心”在商业上的可持续性。
给初创公司的建议: 如果你想把公司做成 AI-complete 的飞轮,不要看用户用得爽不爽,要看每次交互是否产出了可以被模型复用的“长期知识”。比如问答社区不是积累人际关系,而是积累高质量的 Q&A 键值对。这比单纯做社交或内容平台更陡峭,但安全。
给专业研究人员的建议: 不要再痴迷于 scaling law 的尽头,应转向 Inference-efficient optimization。Srinivas 强调“让模型自己推理自己”,这对应了 LLM 在 Parallel Generation > Sequential Generation 上的特性。开发“Self-Taught Reasoner” 类型的算法,让模型通过自我对撞、自我纠错来提升准确率,而不是在 Reddit 数据上训练更宽的模型。
给拥有自有数据企业的建议: 不再需要高薪聘请 SEO 团队去优化关键词排名,现在需要的是 “Answer Engine Trainers”。你需要研究 AI 是如何 discard 掉信息,或者如何被 invisible text 偷取信息的。哪怕只是改掉网页标题以免 AI 误判,或者布局不可见的“负面样本”以训练 AI 拒绝错误诱导,都是防御战的关键。
6. 金句摘录
-
“The best way to actually make a dent in the search space is to not try to do what Google does, but try to do something they don’t want to do.”
- 语境:Aravind 解释为何 Perplexity 放弃与 Google 比拼链接展示,转而激进地隐藏来源链接,赌注在于模型完美度会取代链接的必要性。
-
“Your margin is my opportunity.”
- 语境:受 Jeff Bezos 哲学启发,用来解释为什么 OpenAI (Microsoft) 在这种极端的烧钱预训练游戏中能赢,而像 Perplexity 这样的后期者只能寻找别人不想做的轻量化、定制化赛道。
-
“The primary difference of Perplexity… is that we never even tried to play Google at their own game.”
- 语境:针对“挑战 Google”这一常被质疑的话题,Aravind 表示他们不想成为另一个搜索引擎,否则永远无法超越已经在规则下优化 20 年的巨人。
-
“We made a bet that this technology [LLM] is going to exponentially improve and get cheaper… we are betting on the user is never wrong.”
- 语境:阐述 Perplexity 面对用户输入乱码(懒惰)时的应对策略,即通过后端强大的语义理解让产品为用户的懒惰买单,而非强迫用户修正问题。
-
“If we can achieve that amount of inference compute… that will be the beginning of real reasoning breakthroughs.”
- 语境:对于 AGI 的终极预测,Srinivas 认为只需要给模型足够的算力让它一遍遍地自我思考,人类目前离真正的“自主研究”还很远。