苹果低下了高傲的头颅
Siri 马上要换脑子了。
1 月 12 日,谷歌和苹果发布联合声明:下一代苹果基础模型将直接基于谷歌的 Gemini 模型和云技术构建。
后者每年支付给前者 10 亿美元,相当于 " 租金 "。
对此,有人急了。
马斯克直接发推开炮:考虑到 Google 已经拥有 Android 和 Chrome,这似乎是一种不合理的权力集中。
你们两家居然联合?其他人还怎么玩?这不是垄断是什么?(为什么不用 gork?!)
……
也有人将之解读为 " 高傲的苹果向谷歌低头 ",仿佛看到了昔日封闭生态王者向曾经的对手、现在如日中天的 AI 巨头俯首称臣的戏码。
现在回过头来看,这可能既非联手、也非低头,而是两个顶级玩家的精准互撩。
苹果缺的是时间和成熟模型,谷歌缺的是生态入口和规模化验证,两者一拍即合,本质是场用 10 亿美元年费撬动 5000 亿美元 AI 市场的临时同盟。
这份盟约,比结婚誓言还要虚假。
一旦利益分歧,立刻就一拍两散。
01
苹果的 AI 焦虑,不是 " 有没有 " 的问题,而是来得太晚了。
根据 Canalys 的数据,2023 年全球 AI 手机渗透率仅 5%,2025 年就飙升至 28%,预计 2027 年将达到 54%。
而苹果在这波浪潮中,明显慢了半拍。
苹果目前自研的最大参数模型仅 1500 亿,MMLU 基准测试成绩仅 78.6%,连行业第一梯队的门槛都没摸到。
更要命的是人才流失,2024-2025 年,AI 团队负责人庞若鸣、Siri 搜索项目负责人 Ke Yang 等 17 名核心成员相继跳槽至 Meta、OpenAI,研发进度直接滞后了 18 个月。
而技术落后,带来了一种可能性:生态位逐渐被替代。
对苹果而言,这才是最恐怖的。
据 Counterpoint 2025 年第四季度《全球智能助手用户满意度报告》,Siri 的用户满意度仅 62%,较 2023 年下降 15%,不仅远低于谷歌 Assistant 的 78%,还落后于华为小艺 68%、小米小爱同学 65%。
在 " 用户最想更换的智能助手 " 投票中,Siri 以 42% 的占比高居榜首,核心槽点集中在 " 复杂指令理解差 "" 多模态交互弱 "" 响应速度慢 " 等等。
AI 能力的不足甚至已经开始影响到 iPhone 的销量。
根据 2025 财年财报,其全球智能手机市场份额同比下降 2.1%,其中 "AI 功能未能满足用户需求 " 被列为三大核心原因之一。
这种形势再不改变,各家大模型的功能越来越完善,iOS 的入口价值必然会越来越小。
根据苹果的测算,要自建能支撑 1 万亿参数模型的 AI 基础设施,需耗资 480 亿美元,且至少需要 3 年才能形成可用能力。
苹果有钱吗?苹果有现金流吗?
毫无疑问。
但苹果愿意给英伟达上供几百亿美元,去建一个可能三年后已经过时的数据中心吗?
现在的结果已经很明显了。
苹果的基因是消费电子和端侧计算,擅长的是把晶体管塞进芯片里,追求的是极致能效比。
而大模型的游戏规则是暴力美学,数万张 GPU 互联,兆瓦级别的功耗。
更关键的是,苹果严格的隐私政策是其最坚固的护城河,但在 AI 时代却成为了枷锁。
它无法像谷歌那样,肆无忌惮地抓取全网数据进行预训练。
在这种情况下," 租 " 似乎成为最现实的选择。
根据苹果内部预测,搭载 Gemini 的新版 Siri 将于 2026 年春季随 iOS 26.4 推送,支持 128K 超长文本处理、20 轮上下文理解、屏幕内容实时解析等功能,复杂指令处理速度提升 30% 以上,响应时间压缩至 0.5 秒以内。
预计带动该系列销量同比增长 11%,季度利润接近 400 亿美元。
同时,AI 功能的升级还将提升苹果生态的粘性。
2025 年调研显示,65% 的苹果用户选择继续使用 iPhone 的核心原因是 " 生态协同体验 ",而 AI 将成为新的 " 协同粘合剂 ",比如通过 Siri 实现 iPhone、Mac、Apple Watch 的跨设备 AI 任务联动。
更关键的是,苹果将获得宝贵的研发缓冲期。
借助 Gemini 的接入,苹果可以将更多资源投入到自研大模型的研发中。目前已规划 2027 年推出 1 万亿参数的云端模型,目标是在 MMLU 测试中突破 92% 的准确率,超越当前 Gemini 的水平。
简单来说,苹果每年支付谷歌 10 亿美元使用 Gemini,不仅能快速让新版 Siri 具备复杂任务处理、多模态交互能力,还能为自研模型争取研发时间。
苹果承认了自己在大语言模型基础层面的落后,但通过极其务实的商业操作,保住了用户体验,同时规避了巨额的资本开支风险。
这可以说是一次经典的风险转移。
如果说苹果是借船出海,那谷歌就是趁势扩疆。
谷歌在 AI 领域的野心,从来都不是做一个聊天机器人。
自 2023 年底推出 Gemini 以来,桑达尔 · 皮查伊就明确表示,Gemini 不是一个产品,而是一个 " 能理解、生成、交互所有模态信息的平台 ",目标是成为 " 未来所有智能设备的底层大脑 "。
但要实现这个目标,有一个非技术层面的核心难点:生态入口不足。
AI 模型的优化,需要海量的真实场景数据:用户的语音交互、多模态需求、场景偏好。
OpenAI 之所以仍能占据 60.5% 的 AI 对话市场份额,核心原因就是早一步通过 API 接入了大量第三方应用,积累了丰富的用户数据。
谷歌尽管拥有 Android 系统(全球市场 71% 份额)和 Chrome 浏览器(全球市场 65% 份额),但用户质量相对较低。
而苹果全球超 20 亿台活跃设备中,iPhone 用户占比 65%,这些用户具备 " 高消费能力、高粘性、高交互频率 " 的特点。
2025 年调研显示,iPhone 用户平均每天使用语音助手的次数达 4.2 次,是 Android 用户的 1.8 倍;在 AI 功能的付费意愿上,iPhone 用户的付费率达 23%,远高于行业平均的 8%。
对谷歌而言,接入苹果生态,相当于获得了 13 亿 " 高质量测试用户 ",可以快速验证 Gemini 在消费级场景的表现,优化多模态交互、语音识别、复杂任务调度等能力。
更重要的是,通过此次合作,谷歌还能完成 Gemini 从 " 云端工具 " 到 " 设备端默认智能层 " 的转型。
2025 年,Google Play 上仅有 5200+ 第三方应用使用 Gemini API,且多为中小开发者。
而接入 Siri 后,Gemini 将成为 13 亿 iPhone 用户的 " 默认 AI 引擎 ",从 " 需要用户主动打开 " 变为 " 被动唤醒即可使用 "。
这种场景的渗透力,是任何第三方应用都无法比拟的。
比如,用户每天用 Siri 设置闹钟、查询天气、规划路线,这些高频交互将持续为 Gemini 提供数据,形成 " 技术落地→数据反馈→模型优化 " 的正向循环。
预计到 2026 年底,Gemini 的月活跃用户将突破 5 亿,市场份额提升至 25% 以上。
同时,谷歌内部预测,通过 iPhone 用户的语音交互数据优化后,Gemini 的方言识别准确率将提升 15%,复杂指令处理效率提升 20%,在 MMLU 测试中的准确率有望突破 95%。
更有想象力的是 "Android+iOS" 双端覆盖的 AI 生态优势。
目前,Gemini 已为三星 Galaxy AI 功能提供支撑,覆盖全球约 10 亿 Android 用户,如果再加上 iPhone 的 13 亿用户,足以形成碾压级优势。
这种双端覆盖的优势,是 OpenAI、Anthropic 等竞争对手无法比拟的。它们只能通过 API 接入第三方应用,无法获得操作系统级的默认入口。
而未来,任何硬件厂商要推出 AI 功能,Gemini 可能都将成为 " 首选合作伙伴 ",因为它能适配绝大多数移动设备,降低开发成本。
谷歌甚至可以将苹果生态的 AI 落地经验复制到智能汽车、智能家居等领域,比如与特斯拉合作开发车载 AI 系统,与三星合作推出 AI 智能家居中枢。
当 Gemini 成为全场景的底层大脑后,谷歌将在 AI 时代重新确立自己的垄断地位,就像当年通过搜索掌控互联网入口一样。
当然,以上这一切,都是谷歌想要通过这次合作得到的。
苹果给不给,又是另一回事。
苹果与谷歌的这次合作,是 AI 行业从 " 单一模型性能比拼 " 转向 " 生态绑定能力较量 " 的标志性事件。
谁能绑定主流硬件生态,谁才能在占据主导地位;而只懂堆参数却没有生态入口的大模型公司,很可能沦为技术供应商,失去话语权。
对 OpenAI 而言,这肯定不是好消息。
此前,OpenAI 通过 API 接入苹果生态,是 Siri 的 " 辅助 AI 引擎 ",但随着 Gemini 成为核心驱动,OpenAI 在苹果生态中的战略地位明显削弱。
2025 年 Q4 数据是,ChatGPT 的周活跃用户增长已降至 5%,若 iPhone 用户普遍转向 Gemini,OpenAI 的市场份额可能从 60.5% 下滑至 50% 以下。
尽管 OpenAI 正加速推进由前苹果首席设计师 Jony Ive 参与打造的新型 AI 硬件设备,试图构建独立于智能手机的 AI 交互入口,但这相当于是从零开始,难度极其巨大。
在即将 IPO 的阶段,遭遇这种事情,会对 OpenAI 的估值造成多大影响呢?
这个以后再讨论。
现在的问题是,苹果对谷歌的依赖,不过是权宜之计。
苹果特意在声明中特意强调,此次与谷歌的合作并非排他性协议。
目前 iPhone 用户仍可通过 Siri 调用 OpenAI 的 ChatGPT 处理部分查询,未来还可能接入其他大模型。
既用 Gemini 解决了眼前的问题,又防止谷歌形成垄断性供给。
更鸡贼的是借 Gemini 验证 AI 场景,为自研模型铺路。
在与谷歌合作的同时,苹果内部的芯片团队仍在疯狂研发下一代 NPU,目标是把能够在本地运行的模型参数量提升到 15B-20B 级别。
一旦端侧算力突破,苹果会毫不犹豫地切断云端,或者大幅减少对 Gemini 的依赖。
所以,以上所有的未来,都只是一种可能性。
这种可能性能否成真,最重要的一个因素就是:苹果自研突破的时间究竟要多久?
如果真的需要三年之久,谷歌将有足够的时间让 Gemini 成为 AI 时代的 " 水电煤 ",将所有硬件应用都建立在 Gemini 的基础之上。
届时,苹果造不造大模型,市场或许已经无所谓了。
