到了2026年,苹果在WWDC大会上打算推出一个代号叫“Campo”的全新Siri,这事儿能给智能助手的行业带来大改变。为了让Siri变得更强,苹果找谷歌合作,把人家的Gemini模型整合进了自家的“苹果基础模型”(Apple Foundation Models)里。这个整合估计一年得花掉苹果大约10亿美元,用来做研发和运营。 这次升级不光是为了让Siri能听懂人话、回答更准,还得让它变得跟ChatGPT、Claude这些聊天机器人一样好用。为了达成这个目标,苹果给iOS、iPadOS还有macOS Tahoe都配上了新功能。通过用Gemini模型来干活,Siri就能更好地理解你到底要干嘛。 除了在对话上动刀子,苹果在视觉这块儿也没闲着。他们搞了个叫“Liquid Glass”的控制功能,让你能自己调玻璃那种质感的深浅。虽然要让整个系统都实现这种效果有点难,但新系统会先在文件夹、导航栏和主屏幕这些地方先试试看。 这一连串的操作说明苹果想在做生成式AI这块儿下功夫,想用外部现成的模型加上自家系统设计来补上短板。等到WWDC2026真来了,Siri这一变化不光是给iOS 27系统提提质量,更是让苹果的端侧AI变得更懂你、更有逻辑。以后用苹果产品聊天就会变得自然又高效。 总之,苹果在这次大会上搞的这套组合拳,既让咱们见识了他们在AI领域的野心,也是对用户需要更智能体验的回应。以后科技越发达,像Siri这样的助手就会变得越来越聪明,这次升级肯定能当一个好榜样。