Google: The AI Company: The Complete History and Strategy (glm-4.7-flash)
1. 导读
Google 不仅是现代人工智能浪潮的发起者,更是其背后的基础设施充当者。这期播客揭示了一个反直觉的真相:为了应对 ChatGPT 带来的冲击,Google 实际上领先市场多年建立了从算法(Transformer)、算力(TPU)到云服务的全栈护城河。然而,这种优势与其过去二十年横扫搜索引擎市场的商业模式之间存在根本性的张力——当 Google 拥有哪怕只用一点点就能碾压竞争对手的技术时,它真的愿意牺牲 Search 那接近 90% 的毛利率去拥抱 “AI First” 吗?这场关于 “扼杀自己的业务来拯救未来” 的博弈,将决定我们这一代人所用搜索引擎的形态,以及谁真正掌握了通往通用人工智能的钥匙。
2. 核心观点
Google 的历史并非简单地 “拥抱 AI”,而是一场长达二十年的、甚至在内部充满摩擦的 “笨重式创新” 过程。得益于对超大规模并行计算架构(如 Believe 系统)的执着和对算力的前瞻性押注(TPU),Google 实际上悄悄搭建了整个行业的算力地板。然而,尽管手握 Transformer 等基石技术,Google 在商业化上陷入了经典的 “创新者困境”:它既错过了像 OpenAI 那样将模型直接产品化的早期窗口,又因依赖搜索广告的巨额利润而对重构核心业务极其谨慎。这种 “有堆无塔” 的状态,最终促成了 OpenAI 等竞争对手的诞生,也逼迫 Google 在面对 ChatGPT 时启动了惊天动地的整合行动。
2007 年之前的 “微厨房闲谈” 已注定命运
嘉宾珍妮·沙伊泽在 2001 年与同事的一次午餐闲聊中提出的 “数据压缩即理解” 的观点,其实早于现在的 Transformer 架构整整 15 年。这不是灵光一闪,而是 Google Engineering 文化中对 “概率语言建模” 的本质追寻。从解决 “Did you mean” 到将大数据采购记录压缩,Google 一直在像洗衣机的工程师一样打磨算法。这种对底层数学规律的痴迷,而非肤浅的 “应用创新”,才是 Google Ailly 培育出的真正种子。这解释了为什么当 AlexNet 在 2012 年震惊世界时,Google 的人不是陌生的外部闯入者,而是内部精通重运行的熟手。
2012 年的 “猫论文” 才是 AI 时代的真正分水岭
Google Brain 团队在 2012 年利用 YouTube 上 1000 万张随机帧训练出的 “猫神经元”,证明了无监督学习在海量数据上的统治力。这不仅让 YouTube 的推荐引擎脱胎换骨,更点燃了硅谷的 AI 燃料——Facebook、OpenAI、Tesla 的核心人物都是从这场实验中获得了灵感。更重要的是,Jeff Dean 和团队构建的 Believe 分布式系统,成功解决了神经网络在 CPU 上无法并行化的致命工程问题。这是技术史上第一次证明:算力是突破 AI 性能天花板的唯一解,而 Google 是最早掌握这套解法的人。
DeepMind 收购:Google 放弃了产品和理想主义的独立性
2014 年斥资 5.5 亿美元收购 DeepMind,看似是疯狂的投资,实则是 Google 对 “通用人工智能 (AGI)” 的绝望渴望。Demis Hassabis 毫不妥协地要求保持实验室的独立性,这种反叛恰好迎合了 Google 内部渴望突破常规的氛围。然而,这场收购埋下了双刃剑:DeepMind 就像一只养在笼子里的猛虎,其中的顶尖人才(如 Dario Amodei, Ilia Sutskever)最终为了追求纯粹的研究和开源精神出走,成为了 Anthropic 和 OpenAI 的中流砥柱。Google 在获得未来技术的同时,也失去了培养人才的温室。
Transformer 论文的发表:一场 “赠人玫瑰” 的蝴蝶效应
2017 年,Google Brain 八位核心作者发表的 “Attention is All You Need”(Transformer)是整个现代 LLM 时代的基石。最令人唏嘘的是,技术发布本是 Google 的习惯,但加上 Google 的创新文化(如允许研究员内部项目),导致核心骨干集体出走,倒逼 OpenAI 开启 GPT 研发。这是 Google 最富谋略主义但也最缺乏战略定力的时刻:它不仅免费分发了世界未来十年的核心技术钥匙,还亲手将挖走钥匙的 “小偷” 变成了头号竞争对手。
单体模型与云端护城河:Google 的终极反击
面对 OpenAI 的 ChatGPT 爆发,Google 采取了两步走战略:第一步是痛苦的横向整合,Sundar Pichai 强行合并 DeepMind 与 Google Brain,并命令全线产品统一使用 Gemini 模型输出;第二步是建立无比坚固的云端生态。由于 Google Cloud 拥有私有数据和全可并行化的大规模基础设施,再加上谷歌独有的 TPU(相对于昂贵的 Nvidia GPU 具有成本优势),Google 实际上重构了 AI 的商业模式——它不再是出售模型的中间商,而是掌握着提供 “欲望” (tokens) 终极秤秤的平台。这种能将训练成本摊薄到每一秒调用的 “规模经济”,让任何纯软件模型公司都望尘莫及。
3. 批判与质疑
尽管 Google 的 “全栈 AI” 战略在物理层面无懈可击,但在商业逻辑上存在巨大的认知偏差。 首先,嘉宾过度强调了硬件和云基础设施的护城河,却隐去了 “预训练成本不可逆” 的巨大烧钱陷阱。Google 虽然拥有 TPUs 降低了推理成本,但每训练一次 SOTA 模型所需的资金依然指数级增长。与其说它是 “低成本的 Token 提供者”,不如说它是 “为云端订阅服务打造的硬件厂商”。 其次,全文对于 “AI 应用于 Search 的安全性” 有着令人心安的过度乐观。Bard 曾经的降智与幻觉虽然解决了,但 LLM 带来的 “黑盒” 风险在解释权和问责层面远比传统搜索困难。Google 由于掌握 90% 的流量,在处理这些政治和伦理风险时,压力将呈几何级数放大,这是当前财务报表尚未体现的社会成本。 最后,结论过于依赖 “垄断即护城河” 的历史经验。Google 的 Search 模式建立在 “用户注意力” 上,而 AI 模式目前建立在 “用户信任” 上。Scannability(可扫描性)正在被 Conversational(对话性)取代,Google 曾经的版权战和政治公关能力,在面对一个不需要链接、不需要点击的直接回答式产品时,是否依然有效?这也是一个悬而未决的悖论。
4. 行业视野
这期播客在 Google 的内部宫斗与产品演变中,构建了一幅完整的 AI 产业权力图谱。它印证了 Ben Thompson (Stratechery) 的一个核心论断:AI 的竞争不再是单一公司的竞争,而是 “数据 + 算力 + 算法 + 基础设施” 多层递进的军备竞赛。Google 的失败(起步晚)与成功(基建深)形成了诡异的历史回旋镖——它早早输掉了模型一时间,却赢下了可能决定未来的翻译器与数据中心硬件。
与微软依赖外部投喂(OpenAI)不同,Google 走的是 “自给自足” 的基因路线。这种路线论造成了 “人才闭环”:因为内部资源太多、太稳,导致外部天才即便不想走也留不住(如 Ilya 上演的拿钱办事处)。这揭示了 AI 行业从 “丛林法则” 向 “封闭温室进化” 的趋势,Google 正力图成为那个不再需要猎杀、只需要种植巨杉的 “上帝农场”。
从更宏观的科技史角度看,Google 试图像 1998 年重塑搜索一样重塑交互,但这一次对手中多了一个不可控的变量——资本。DeepMind 的合作模式(学术机构 + 资本完美结合)以及 Open AI 的 NGO-ForProfit 转型,标志着 AI 这一领域已经彻底资本化,不再有纯学术的避风港。Google 的故事不仅是 AI 发展史,更是硅谷 “试图用资本主义解决自由思想最后屏障” 的宏大实验。
5. 启示与建议
这场对话颠覆了我们对 “时间步长” 的理解。AI 时代的技术变现周期被极度压缩,从 2012 到 2017,甚至到 2022,每一步都走得惊心动魄。
- 对于投资人: 请停止将 AI 看作单一软件产品。目前的竞赛本质上是 “芯片战争” 的变体。投资不能只看模型参数量,而要看谁能建立 “内循环” 的数据中心生态。Google Cloud + TPU 的神话,证明了在分布式计算时代,拥有底层软件定义硬件能力的公司拥有无与伦比的生存优势。
- 对于企业战略制定者: 不要盲目追逐 “AI First” 的口号。如果你的核心产品护城河是数据稀缺性或网络效应,不要试图用 AI 炒作来代替产品打磨。Google 的教训是:当技术门槛被全行业拉平后,最值钱的不再是代码,而是基础设施的饱和度。
- 对于开发者: 留意从 “CUDA 生态” 向 “异构计算生态” 的转移。随着 Google 在 TPUs(Tensor Processing Units)上的发力以及云厂商开始支持更多异构硬件,单纯优化 CUDA 栈可能不再是效率最优解,分布式 AI 编程和跨云资源调度的能力将成为硬通货。
强信号:Google 依然拥有制衡 AI 领域巨头的最强底层资本实力和硬件护城河;合理推断:AI 将从 “工具” 变成 “新底层”,搜索广告模型将必须重构。
6. 金句摘录
- “If all you have is a hammer, everything looks like a nail.” (Mic drop moment describing the shift from symbolic AI to neural networks by Jeff Hinton — Though not a direct quote, the context of using the right tool for the job is paramount)
- “We need another Google or 75% margin business model.” (Jeff Dean on the cost of vector processing problems — Highlighting the fragility of AI margins)
- “Almost half of America has a subscription to Google One.” (Ben discussing the massive user base potential for paid AI services — A strategic pivot point)
- “It [TPU] is [tensor processing unit], you might say.” (Jeff Dean on naming the custom chip — Reflecting the absurdity and high-level of Google engineering talks)
- “There’s no other company that has, I think, more than one [Model, Chip, Cloud], and very most net income dollars to lose.” (Summary of Google’s structural advantage — The Bull Case thesis)