哈喽大家好,前两天刚给iPhone升级到了iOS 26.4,想试试大家都在说的那个Apple智能。话说苹果都50岁生日了,这更新来得是真慢,不过咱们的耐心终究没白费。国行版终于出来了,虽然之前完全没预告,App Store里悄没声儿地就来了。 这次体验到底咋样?咱们先说说激活流程吧,这事儿其实不麻烦。把手机连上Wi-Fi,把系统给更新好,再进设置里面找到那个刚改名叫“Apple智能与Siri”的选项点进去就行。打开那个开关以后,系统会开始下载端侧模型。我试了一下大概花了十来分钟,这速度还是挺良心的。不过得注意了,目前只有15 Pro以及后续的机型能用这功能,像老款的15标准版因为硬件条件限制,就直接被排除在外了。 先说新Siri吧,看颜值感觉变化挺大。屏幕边上那个柔光特效取代了以前那个老气的圆形动画,用着特别顺溜。现在你不光能用嘴说指令了,直接打字也成。理解语义比以前好点了,能接着上下文聊个天儿。但要是跟ChatGPT或者那些国产的AI助手比起来,在深度对话这块儿还是差口气。 再来聊聊这大模型是咋调用的?这事儿挺有意思。视觉识别这活儿好像是找Google做的,而Siri的对话和写东西那块儿,我听有网友说可能叫了GPT甚至百度的文心大模型。苹果官方到现在还没说清楚咋回事儿,估计是跟咱们用的网络环境有关系。 写作工具这块算是个亮点,系统级的文本输入场景它都覆盖到了,像备忘录、发邮件、发信息这些原生App里都能使唤它。你只要把选好的文字点一下右键,就能叫出润色、改写、摘要这些功能。因为模型是跑在本地的,从你点一下到看到结果几乎没延迟,用起来特别顺手。 不过端侧模型也有短板。复杂长文本的摘要有时候会漏掉关键信息,语气改写偶尔也不够地道。跟那些动不动就要连网调用线上大模型的软件比起来,Apple智能胜在快和隐私上,输在精度和灵活度上。 照片App里的那个AI消除功能我觉得挺实用的。你点一下就能把照片里的人给抹了,系统自动识别一下就搞定了。速度快得很,也就两三秒钟的事儿。但也别指望太高啊,放大看会有阴影残留或者边缘模糊的情况。跟Gemini或者别的AI消除比起来是差点意思。 系统级的翻译也在这套体系里。支持实时对话翻译和文本翻译。响应速度也挺快的。但在翻译质量上还是不如DeepL或者Google翻译那么靠谱。 整体来说这国行版给我最大的感受就是“快”和“安全”。不管是干啥操作响应都特别流畅。所有数据处理都在手机本地完成,不上传到云端去,隐私这事儿算是保障住了。 不过端侧模型毕竟有限制嘛。在消除精度、理解深度还有图像生成质量这些维度上跟竞品还是有差距的。苹果在隐私和性能之间做了个取舍。 对于普通用户来说能在本地搞定润色、消除照片、总结信息这些日常操作,不用把数据交给外面的服务器其实就很有价值了。但如果你之前已经习惯了Kimi、DeepSeek还有豆包这些国产产品的能力水平,可能会觉得Apple智能现在的表现就是“就这?” 苹果的AI来晚了太久太久了吧?不过它确实来了。就在苹果50岁生日前一天落地了。这算是苹果在AI领域迈出了关键一步吧? 未来AI技术肯定还会不断发展啊。我们就等着看Apple智能能不能给咱们带来更多惊喜呗! 大家觉得这次更新的AI功能实用不实用?欢迎在评论区留言讨论一下!