说起来,彭博社的记者马克·古尔曼这回可算是曝光了个大新闻,苹果正在偷偷研发三款以“视觉智能”为核心的新硬件。听他这么一说,敢情这就是咱们现在看到的视觉AI了?AirPods装个摄像头、智能眼镜外加个AI吊坠,这是什么操作?这就好比给耳机加了眼睛,让它能看到周围的环境。再配合上iPhone,这一套下来估计得变成真正的“听话的”设备。库克在内部会议上老提视觉智能,说它已经成了Apple Intelligence里最受欢迎的能力之一,能大大提升效率。不过之前主要是集成在iPhone 16的相机按钮上,长按一下就能识别周围环境,还挺方便的。 等到iOS 26系统上线后,这功能就更厉害了。不光是对着相机取景,整个屏幕的内容都能处理。截个图系统就能自动识别里面的信息,还能问ChatGPT或者用谷歌反向搜索图片。不过话说回来,苹果好像不满足于只是当个AI模型的搬运工,听说他们正在拼命研发自己的视觉模型,打算以后完全用自家的技术。 你看那三款新硬件形态各异,估计是想把视觉AI铺满日常生活的每个角落。先说这个带摄像头的AirPods,主要是给AI提供视觉信息用的,不是用来拍照录像。听说最早2026年就能见到了。接着是智能眼镜,听说2027年就会出来和Meta Ray-Ban叫板。这玩意应该是没显示屏的设计,有个高清摄像头拍照片视频,还有个摄像头专门给Siri看环境。 用户戴上它就能跟Siri说话、打电话、听音乐甚至拍视频。再看这个吊坠式装置,跟AirTag差不多大小,可以挂在衣服或者项链上。它内置麦克风和低分辨率摄像头,专门给AI提供视觉感知。苹果打算把它当iPhone的配件卖而不是单独卖。 这三款设备背后其实是苹果一整套视觉AI的战略逻辑。他们不光是堆硬件而是有技术壁垒的。首要是端侧部署,也就是所有计算都在设备本地完成不用连网。这既能保护隐私又能降低延迟。 加上苹果在芯片上的积累从M系列到H系列还有神经网络引擎这些都给端侧AI提供了强大的算力支持。这样一来像吊坠这样的小东西也能处理复杂任务了。 如果说端侧AI是技术根基那生态协同就是竞争力了。这三款设备都得连上iPhone还得和智能Siri互动形成闭环生态进一步巩固壁垒。 跟别的厂商快节奏不一样苹果走的是慢工出细活路线他们一步步把视觉AI融入到日常生活里试图改变人机交互的底层逻辑。 现在曝光的新品只是冰山一角以后随着发布苹果会把场景覆盖得更全让交互从触摸变成感知。