文 | 字母 AI,作者 | 苗正,编辑 | 王靖
究竟是什么样的更新,才能让谷歌 CEO 皮查伊称之为 " 众望所归 "(Answering a top request from our users)?

它通过用户 Gmail、Google Photos、YouTube 和搜索等应用的数据,让 AI 能够跨数据源推理,提供个性化回答。真正意义上实现了 AI 全能管家。
几乎同时,谷歌还与苹果达成多年期合作,Gemini 3 将成为新版 Siri 的技术底座。还有通用商务协议的发布。一系列动作密集而迅猛。
资本市场的反应也是立竿见影,Alphabet 市值突破 4 万亿美元,19 年来首次超越苹果。
这一系列更新背后,是谷歌全栈优势的体现。
从硬件到软件,得益于谷歌在 AI 产业链的每个环节都有布局,而他们也正在用技术栈控制越来越多的生态。
谷歌释放的信号很明确,不仅要赢,还要赢得更彻底。
技术代差可以追赶,资金差距可以弥补,但生态位的差距一旦形成,OpenAI 们可能就永远无法追赶上谷歌了。
01
谷歌和苹果的合作,是一次世纪握手。
1 月 12 日,两家公司联合宣布达成多年期合作协议,Gemini 3 将成为下一代苹果智能(Apple Intelligence)的技术底座。
这次合作并非单纯的提供基座大模型那么简单。文章《" 套壳 " 谷歌 Gemini,但苹果还没死心自研模型》中提到,Gemini 作为后台训练导师与复杂任务处理引擎(负责信息摘要、跨应用调度等),苹果自研模型处理本地敏感数据。
所有用户交互与数据流转通过苹果私有云完成,Siri 控制权与隐私标准仍由苹果掌控,核心落地场景为今年晚些时候推出的新版个性化 Siri。
根据外媒报道,这笔交易预计每年为谷歌带来约 10 亿美元的收入,但更重要的价值是数据。Siri 每天处理约 15 亿次请求,这些交互数据将进一步强化 Gemini 的 Agent 能力。
即便不触碰任何用户的敏感数据,但是 Gemini 依然会了解用户的需求和处理结果。因此,当用户习惯在新版 Siri 中完成各种任务时,谷歌就掌控了从用户意图到应用执行的完整链条。
几乎在同一时间,谷歌在美国零售联合会推出通用商务协议(Universal Commerce Protocol,UCP)。这是一个开源的 AI 电商标准,可以让 AI 代理与商业系统无缝对接。
谷歌与 Shopify、Walmart、Target、Wayfair、Etsy 等 20 余家零售和支付巨头联手打造这一协议,使用户可以直接在 Gemini 应用和 AI Mode 中完成商品搜索、比价、下单和支付,无需跳转到商家网站。
这种 " 原生结账 " 体验彻底改写了电商的流量逻辑,入口从独立电商网站转移到了 AI 对话界面。
在零售端,Gemini 还接入了 Google Shopping Graph。这是一个包含超过百亿商品信息的知识库,支持 AR 虚拟试穿、价格保护、实时库存查询等功能。
说回谷歌的 Personal Intelligence 功能,它与 ChatGPT 仅能参考过往对话历史不同,这个功能主打的是可以跨应用推理,分析数据点之间的关系。
谷歌提供的案例显示,当用户站在轮胎店排队却不知道自己的 2019 款本田小型货车需要什么型号的轮胎时,Gemini 可以从 Google Photos 中识别车辆配置,从 Gmail 收据中找到车牌详细信息,然后建议不同的选项。
比如一种适合日常驾驶,另一种适合全天候条件,参考的是在 Google Photos 中找到的家庭前往俄克拉荷马州的公路旅行记录。
用户可以单独控制每个数据源的访问权限,在隐私保护和功能体验之间取得平衡。
谷歌强调,Gemini 不会直接在 Gmail 收件箱或 Google Photos 库上进行训练,而是仅使用 " 有限信息,如 Gemini 中的特定提示和模型的响应 " 来改进这一能力,且会采取措施过滤或模糊对话中的个人数据。目前该功能已向 AI Pro 和 Ultra 订阅用户开放测试。
02
AI 产业正在进入一个被称之为 "inference economics"(推理经济学)的时代。
在这个时代,竞争优势不再由训练模型的参数量定义,而是由 " 以最低成本提供有用信息 " 的能力决定。而谷歌在这方面的布局堪称教科书级别。
谷歌使用自研的 TPU 芯片训练模型,它的优势主要集中体现在在推理环节上。
这是因为 GPU 每做一次运算,都要频繁地从缓存或内存(HBM)中读写数据。这种 " 存取 - 计算 - 存取 " 的循环在推理时会消耗大量带宽和电力。
TPU 让数据在处理单元之间直接传递。一旦权重加载进阵列,数据流进去就能连续完成成千上万次乘加操作,无需中间写回内存。
不仅如此,为了兼顾图形渲染、科学计算等任务,GPU 拥有复杂的调度逻辑、分支预测和指令缓存。这些在纯粹的推理运算中属于 " 无效载荷 ",但又必须耗费计算资源。
TPU 剥离了所有非 AI 相关的电路。在推理时,由于模型结构是固定的,TPU 能以极高效率的批处理(Batching),几乎没有时钟周期被浪费在指令调度上。
此外,谷歌在 TPU Pod 中使用了自研的 OCI(光学电路交换)技术。
相比于英伟达依赖的电缆和 NVLink 开关,谷歌的光学互联能以更低的功耗提供数 Tbps 的跨芯片带宽。这使得 TPU 在处理超长上下文或超大模型推理时,通信开销更小。
当 Gemini 每天处理数十亿次查询时,每次推理哪怕只节省几美分,累积下来就是数亿美元的成本优势。
更深层的优势体现在商业模式上。
谷歌并不追求 AI 订阅收入的最大化,Gemini Advanced 的定价策略比 ChatGPT Plus 更便宜,甚至在某些场景下完全免费,比如 edu 账号可以全年免费。
谷歌的战略是 " 羊毛出在猪身上 ",强化生态锁定、增加用户停留时间、提升广告定向精度。
根据财报,谷歌约 80% 的收入仍然来自广告。对于谷歌来说,AI 并不是一个新生意,而是一次 " 广告引擎的史诗级大修 "。
谷歌将 Gemini 深度嵌入。用得越多,用户的数据画像就越清晰,广告推送也就越精准。
不仅如此,传统的蓝色链接是搜索引擎让你尽快离开,点击去别的网站。
但是和 Gemini 对话截然相反,谷歌需要用户继续留在 Gemini 里。用户停留时间越长,展示高价值广告的机会就越多。
谷歌不靠卖 AI 赚钱,而是用 AI 让现有的广告生意变得更赚钱。
迭代速度的优势同样关键。
从 DeepMind 的研究 idea 到 TPU 的芯片优化,再到模型训练和产品部署,谷歌可以在一个闭环内完成整个链条。
而像 OpenAI 这样的 AI 企业,想要更新就需要协调微软的 Azure 云、英伟达的芯片供应、第三方的数据合作,决策链条冗长,响应速度必然慢半拍。
在 AI 军备竞赛的 " 以周计算 " 节奏中,这种速度差异可能决定市场窗口的得失。
所以谷歌才会更新得越来越快,同时他们还在扩大优势,形成 " 赢家总赢 " 的局面。
打下推理成本后,通过与苹果的合作,谷歌获得了大量的 Siri 请求数据,相当于 ChatGPT 日均 25 亿次提示词的 60%。而通过 UCP,谷歌还将在电商 AI 入口的争夺战中抢得先机。
这不是简单的技术合作,而是对流量分发权的重新定义。
数据飞轮是谷歌最难以复制的护城河。谷歌拥有 Search、YouTube、Gmail、Maps 等九个用户超过 10 亿的产品,每天产生的数据量远超任何竞争对手。
Personal Intelligence 功能的推出,让这些数据首次被深度整合到 AI 体验中。
用户每一次与 Gemini 的交互,都在强化模型对个体偏好的理解,形成正反馈循环。这种 " 数据→模型→体验→更多数据 " 的飞轮效应,是 OpenAI 等独立 AI 公司难以企及的。
03
视角切换到 OpenAI 这边,他们此刻正陷入前所未有的困境。
2025 年底,就在 Gemini 3 发布后不久,OpenAI CEO Sam Altman 向全体员工发出了 " 红色警报 " ( code red ) 。OpenAI 公司暂停了所有商业化项目,包括广告平台、个人助手 Pulse、购物代理以及健康 AI 工具的开发。
全员转向一个目标,那就是追上 Gemini 3 的水平。
奥特曼后来在播客中承认,这种 " 红色警报 " 状态通常会持续 6 到 8 周,但他补充说:"Gemini 3 的影响没有我们担心的那么大。"
然而市场数据讲述了另一个故事。
根据 Similarweb 的分析,ChatGPT 在生成式 AI 市场的份额从 2025 年 1 月的 87.2% 跌至 2026 年 1 月的 64%,而 Gemini 在同期从 5.7% 涨至 21%。
ChatGPT 的网络流量在近几周下降了 22%,从 12 月初的约 2.03 亿日均访问量降至 1.58 亿,而 Gemini 的使用量保持稳定在 5500 万至 6000 万日均访问量。
此消彼长之间,ChatGPT 的统治地位正在被撼动。
根据谷歌财报电话会议,Gemini 的月活跃用户从 2025 年 7 月的 4.5 亿增长到 10 月的 6.5 亿,三个月内增长 44%。
反观,Similarweb 的数据显示,ChatGPT 同期增长仅为 5%-6%。
苹果合作的 " 降级 " 更是一记重击。
OpenAI 曾是苹果在 AI 领域的首选合作伙伴,ChatGPT 被整合到苹果智能中,用于处理复杂查询。
但在谷歌与苹果的新协议下,OpenAI 的角色被边缘化了。
投资研究公司 Equisights Research 的 CEO Parth Talsania 一针见血地指出:" 苹果选择 Gemini 作为 Siri 的底层技术,意味着 OpenAI 转变为辅助角色。ChatGPT 仍然可用于复杂的、用户主动选择的查询,但不再是默认的智能层。"
更深层的迹象在于,谷歌全栈优势正在放大。
OpenAI 没有自己的搜索引擎、操作系统以及产品矩阵。每一个 APP 之间除了账号相通以外,都是独立运作的。
但谷歌可以将 Gemini 无缝嵌入 Gmail、Docs、YouTube 等用户日常使用的工具中,反之还有 Personal Intelligence 功能。
ChatGPT 却只能要求用户主动离开现有工作流程,用户想生成视频就得从 ChatGPT 里退出来打开 Sora App。
谷歌很清楚一件事:用户对 AI 模型本身并不忠诚。
这个行业的残酷真相是,用户会毫不犹豫地在 ChatGPT、Gemini、Claude 之间来回切换,谁的模型在某个任务上表现更好,他们就用谁。
数据显示,越来越多的开发者开始使用 LangChain 这样的抽象层,让应用可以在不同的 AI 提供商之间无缝切换,而不需要重写代码。这种 " 多模型策略 " 正在成为常态,ChatGPT 用于写作,Claude 用于任务编排,Gemini 用于多模态理解。
但用户对他们的数据、使用习惯、费用预算和工作效率倒是非常忠诚。
他们的数据不可能轻易迁移到其他平台,这些习惯也不可能一夜之间改变。
所以谷歌的战略就是抓住这些真正的忠诚度,通过更大的 AI 生态让用户感受到持续的价值增长,锁住用户。
当用户发现在 Gmail 里就能直接用 Gemini 起草邮件,在 Google Docs 里就能让 AI 帮忙润色文章,在 YouTube 里就能获得视频摘要,他们为什么还要打开一个独立的 ChatGPT 标签页?
这种 " 无缝体验 " 远比模型更有吸引力。
别的模型可能更聪明,但 Gemini 就在每天使用的工具里,不需要切换窗口,不需要复制粘贴,这就够了。
关键的是,谷歌还在不断降低用户使用 AI 的门槛,用价格战进一步扩大优势。
免费用户现在可以在 Gemini CLI 中使用 Gemini 3,以前只有付费用户才能使用。
1 月初,新用户年订阅 Google One 的 AI Pro 半价促销。这些动作的目标很明确:让更多用户进入谷歌的生态系统,让他们习惯在谷歌的产品中使用 AI,让迁移的成本变得越来越高。
当技术竞赛演变为生态位竞争,先发优势和资金储备都不再是决定性因素。
谷歌正在用全栈建造一个 AI 帝国。
而对于 OpenAI 和其他竞争者来说,亮出 " 红色警报 " 并不能解决问题,他们想要追上谷歌的脚步,只会越来越艰难。