苹果决定在 Gemini 之上重建 Siri 的对话智能能力——据报道这是一个拥有 1.2 万亿参数的模型,部分在谷歌的数据中心运行——这是自最初的谷歌搜索协议将搜索框放入每一部 iPhone 以来,消费科技领域最重要的 AI 合作。仔细审视后,这其实也是一个关于苹果 AI 愿景局限性的故事,以及当你无法比竞争对手更快地构建能力时,外包能力的战略逻辑。
这一公告证实了行业两年来的猜测:苹果的设备端 AI 处理,尽管作为一项工程成就令人印象深刻,但在处理开放式对话任务时,无法与云规模的语言模型竞争。随 iOS 18 发布的 Apple Intelligence 功能——摘要、写作辅助、照片编辑——是针对限定任务的成熟实现。而需要跨应用上下文意识来回答复杂的多步骤查询,则需要比 iPhone 芯片能运行的更大的模型。
交易架构
苹果尚未公开完整的技术架构,但从开发者测试和监管文件中浮现的情况是,Siri 现在作为一个混合系统运行。简单的、有限制的查询——设置计时器、播放音乐、发送消息——继续使用设备端模型。需要跨多个上下文进行推理、获取实时信息或访问开放式知识的复杂查询,则通过苹果管理的代理基础设施路由到 Gemini。
代理层很重要。苹果明确表示,用户查询在发送给谷歌之前会被匿名化并去除识别信息,并且谷歌已合同约定不会使用 Siri 查询数据来训练 Gemini。这种隐私架构在技术上是否足够强大,以满足欧盟监管机构和历来严格审查苹果数据实践的隐私倡导者的要求,将成为持续审计和诉讼的主题。
1.2 万亿参数的 Gemini 数字之所以引人注目,主要是因为它远超苹果能在设备上运行的模型。苹果最大的设备端语言模型参数范围在 30 亿到 70 亿之间。设备上运行的模型与谷歌在其数据中心运行的模型之间的能力差距,不是通过 iPhone 升级周期上的摩尔定律就能弥合的——这是一个在可预见的消费硬件未来将持续存在的结构性差异。
为何苹果选择谷歌而非 OpenAI
更有趣的战略问题不是苹果为何合作进行云 AI——这是不可避免的——而是为何选择谷歌而非 OpenAI,后者在 2025 年大部分时间里一直是传闻中的合作伙伴。答案似乎涉及三个因素。
首先,是基础设施兼容性。Google的推理基础设施运营规模只有Google和Microsoft能够匹敌,而Microsoft的基础设施致力于服务OpenAI自己的产品。Apple需要一个AI合作伙伴,其计算基础设施能够处理Siri规模的查询量——每天数亿次查询——而不会出现性能下降。Google Cloud在这方面能力毋庸置疑;而OpenAI对Microsoft Azure的依赖则带来了间接的竞争复杂性。
其次,现有的搜索协议提供了谈判模板。自2002年以来,Apple和Google一直运营着一项复杂的、具有重大财务意义且受到定期审查的搜索合作伙伴关系。两家公司都有法律和业务流程基础设施来管理这种敏感且高调的关系。与现有合作伙伴建立新的基础AI合作伙伴关系,比从头开始与OpenAI建立这种基础设施在运营上更为简单。
第三,也是最具有推测性的:Apple可能已经得出结论,认为Google在特定领域的AI能力——实时信息检索、多语言支持、多模态处理——比OpenAI的GPT系列更适合Siri的实际使用场景,因为GPT系列更优化于文本生成,而非在Siri语境下的对话实用性。
对AI生态系统的影响
对于更广泛的AI市场,这笔交易重塑了竞争格局,其影响需要时间才能完全理解。Apple设备是大量全球消费技术用户接触AI的主要界面。通过Gemini处理这些交互,Google能够获得一个数据信号——即使是经过清理和聚合的数据——了解消费者向AI系统提出的问题类型,这是任何AI实验室的直接产品都无法匹及的规模。
对于构建使用Siri集成的iOS应用程序的开发者来说,实际影响是Siri处理复杂任务的能力上限已大幅提高。随着底层模型的改进,之前受限于Siri语言理解能力的SiriKit集成可能会变得更加强大。随着Apple发布更多关于SiriKit API表面可访问功能与Apple内部路由层保留功能的细节,开发者文档值得关注。
这笔交易也是关于AI垂直整合——构建自己的模型——对消费技术公司是否必要的持续讨论中的一个数据点。Apple通过这笔交易揭示的答案是:不一定,也不应以牺牲用户体验为代价,等待自己的模型成熟。同样的计算可能正在三星、Amazon的Alexa团队以及其他投资于专有模型开发但面临相同能力差距的消费AI平台上进行。
