[谷歌] 苹果谷歌一起做"混血Siri",为何马斯克在线怒喷?

???????
“听不懂人话”的Siri,将要迎来彻底大换血,给它注入“最强灵魂”的是老对手谷歌。
1月13日凌晨,苹果和谷歌突然联手官宣:下一代Siri和苹果智能(Apple Intelligence)的核心,将建立在谷歌旗舰模型Gemini之上。消息一出,科技圈瞬间炸锅。有人欢呼Siri有救了,有人担忧AI权力过度集中,马斯克更是直接开炮,指责双方有垄断之嫌。
双方交易的细节是什么,果粉隐私是否还安全,苹果放弃自研模型了吗?
01 交易细节:白标合作
苹果与谷歌在Gemini上的合作,不是简单的API接入,而是一次“白标(White-Labeled)”式“灵魂嫁接”。
简单讲,苹果拿到了一个1.2万亿参数深度定制版的谷歌Gemini模型。
回过头来看,谷歌近期对 Gemini API 进行升级,将内联文件大小上限提升至100MB,并新增了从Google Cloud Storage存储桶和HTTP/签名URL直接读取文件的能力。这些改进显着增强了模型在大文件和复杂场景下的处理能力,都可以理解为是在为与Siri合体做铺垫。
最关键是,基于定制Gemini模型能力的Siri,不会出现任何谷歌的痕迹。
未来和Siri对话时,它不会自称Gemini,界面也不会出现谷歌的Logo,更不需要绑定谷歌账号。对外,它依然是纯正的苹果味Siri。
双方签署的协议是非独家的,苹果仍然保留了OpenAI的ChatGPT作为“备胎”,用于处理一些极端复杂的查询。但毫无疑问,Gemini成了默认的“主脑”。
02 数据隐私红线
苹果用户最关心的隐私问题,成了这笔交易的最大红线。苹果的态度非常坚决:用户数据绝对不能离开苹果的生态。
那具体怎么操作呢?靠一套复杂的“混合处理模式”(Hybrid System,与Apple Intelligence原有架构一致):
设备端(iPhone/Mac):处理简单任务,比如“今天天气怎么样”、“定个7点的闹钟”。这些任务继续用苹果自研的小模型,在A系列或M系列芯片的神经引擎上跑,零延迟、低功耗,数据完全不出设备。
云端复杂任务(苹果私有云,简称PCC):当用户需要Siri“总结我刚看的50页PDF”、“帮我规划一个包含机票酒店和餐厅的巴黎之旅”,这些复杂任务才会动用1.2万亿参数的“Gemini大脑”,这个大脑部署在苹果自家的“私有云计算”服务器上。
目前,OV等国产厂商目前也在规划类似方案,利用多个模型协同,在云端为用户提供图像处理等重度AI任务相关服务。
据了解,未来通过Siri发起的AI任务,用户的查询会先经过一个“隐私缓冲层”,像过滤器一样把个人身份信息(名字、位置、账户关联等)剥离掉,再用“匿名化”的数据,在苹果私有云上处理,处理完即刻丢弃。
谷歌既拿不到原始用户数据,也不能用这些数据来训练自己的Gemini模型。苹果在声明里反复强调,这一切都是为了维护其“行业领先的隐私标准”。
03 为何是谷歌?
苹果向来以垂直整合、自研核心技术为傲,A系列芯片、iOS系统都是例子。这次把AI“大脑”的基础交给外人,尤其是老对手谷歌,这步棋背后充满了“不得已”的精明。
首先,苹果自有模型研发“压力山大”。
知名苹果分析师郭明錤早在2025年11月份接受《MM Podcast》播客采访时,就预言了这场合作。
[物价飞涨的时候 这样省钱购物很爽]
| 分享: |
| 注: | 在此页阅读全文 |
| 延伸阅读 | 更多... |
推荐:



