苹果对第三方大模型的“解构与重组”不仅缓解了移动端运行高参数模型的效能焦虑也预示着移动ai 竞争重心正

2026年3月25日的消息爆料了苹果的一个大动作,他们通过知识提炼(Knowledge Distillation)技术,把谷歌的Gemini模型压缩到了iPhone端侧。苹果公司的工程师这次直接拿到了数据中心里的Gemini全量模型,好好检查了一番运行机制。这样一来,苹果的自主权就大了,能用Gemini的高质量计算结果和“思维链”来训练自己的小型模型。虽然主要目标是优化端侧体验,但AFM团队其实是在打造一个更安全、更小体积的基础模型。这项技术最厉害的地方在于,降低了硬件需求和运行成本的同时,微型模型在功能上和原版Gemini差不多快也差不多准。这说明苹果把设备端智能当成了核心战略。以后在iOS26.4等版本升级时,Siri这样的原生应用响应会更灵敏,隐私也更有保障。这次对第三方大模型的“解构与重组”,既缓解了移动端运行大模型的压力,也预示着行业竞争重点正在转向端侧效率的提升。 不过呢,这个消息虽然把谷歌Gemini当成了训练源,但苹果没打算去开发一个能直接和Gemini竞争的通用大语言模型。因为这次协议主要是为了给OS26以及未来的OS26.4版本提供更好的支持,并且增强了iPhone上的Phone和Siri等应用的性能。虽然苹果和谷歌有合作协议让工程师们能访问数据中心里的Gemini全量模型做拆解检查工作,但苹果公司并没有计划开发与谷歌直接竞争的通用大语言模型,而是把重心放在了端侧执行效率的提升上。虽然知识提炼技术能够显著降低硬件算力需求和运行成本,还能让微型模型在特定功能上保持与原版Gemini相近的响应速度与精度,但它其实是一种通过模拟大型模型计算过程来训练小型模型的技术。这种技术不仅能显著降低硬件算力需求和运行成本,还能让微型模型在特定功能上保持与原版Gemini相近的响应速度与精度。尽管目前AFM团队的主要目标是优化端侧处理体验而不是开发通用大语言模型,但这次举动确实强化了苹果“设备端智能”的核心战略。随着iOS26.4等后续版本的迭代,这种经过蒸馏的端侧模型将提升Siri等原生应用的响应灵敏度与隐私保障。在行业视角下,苹果对第三方大模型的“解构与重组”不仅缓解了移动端运行高参数模型的效能焦虑也预示着移动AI竞争重心正从云端参数竞赛转向端侧执行效率的降维打击。