airpods 终于对上了号,苹果终于没再磨叽,直接给中国区用户发了推送

AirPods用户这下要乐坏了,AirPods系列终于把实时翻译功能给弄出来了。这次更新跟两年前承诺的国行版Apple智能功能终于对上了号,苹果终于没再磨叽,直接给中国区用户发了推送。官方是真的开始动手干正事了,整个测试流程跟之前的那些传言完全不一样。虽说几年前就说全系设备都支持这个功能了,但那时候连Beta测试都还没影儿呢。等到用户真把那个包含9GB本地模型的大文件下完,才算真正打开了新局面。以前系统里的Siri设置项早就换成了Apple智能的标识,现在得叫“Apple智能与Siri”。想收到推送也挺讲究,必须是国行设备、系统升到iOS 26.4、还得用中国区账号。 这几年一直拖着没露面,这次总算是彻底把中文交互体验给搞定了。长按电源键唤出的界面动画也变了样,不再是老样子了。最有意思的是那个Visual Intelligence功能,拍张照片就能调用带ChatGPT的Siri来识别内容。要是展板上写着啥东西或者某个物体长啥样,系统能马上把文字结果读出来。不过稍微有点奇怪的是,这个图像处理好像还是得靠谷歌的技术才行。 针对咱们中文用户的痛点,这次优化非常到位。以前都是英文输出来的一大堆东西现在全改成中文的了,实用性强了很多。而且不光是语言这块变了,就连硬件也跟着动了刀子。苹果估计是打算在端侧部署上发力了,iPhone16和17系列都把内存给拉满了8GB起步。新款Mac也是如此,起步内存直接提到了16GB。 不过现在的版本还是有不少局限的。那个Visual Intelligence的图像处理还得依赖外部引擎,连供应商是谁都没说清楚。另外还有些高级功能估计还得看硬件性能的脸色。但大家也别太急着吐槽这次更新怎么样?毕竟Beta测试才刚开始嘛。随着测试范围越来越广,以后会不会引进更多本地化的模型、能不能覆盖更多机型?这事儿咱们还得接着看。这场拉锯战打了两年总算是看到了希望的曙光,也算是苹果在中国市场的AI比赛里迈出的关键一步。