vivo搞出了全球首款在终端本地运行的实时影像ai 助手

哎,你听说了没,vivo这次在MWC 2024上真的是拿出了大招啊!他们居然搞出了一个全球首款在终端本地运行的实时影像AI助手,这玩意儿简直太神了。手机芯片直接变成了“副驾”,完全不用再等云服务器响应了。一开机动画出来,AI就立刻开始干活,不管你是逆光拍人像还是夜景街拍,甚至高速运动的物体,都逃不过它的“火眼金睛”。一旦它识别出画面内容,快门、光圈、ISO还有防抖这些参数立马就能自动调好,用户只要把镜头对准想拍的东西按下快门就行,剩下的全交给AI来操心,感觉就像是给相机配了一位随时待命的副驾驶。 这个新功能最先在X300 Ultra还有X300s这两款机子上用了起来。硬件层面那是相当强悍,主摄、超广角和长焦这三个焦段都能录4K 120帧的视频,还支持10bit Log和杜比视界。光学防抖更是全覆盖全焦段,再也不用为了拍照清楚还得去把手机摇来摇去了。关键是拍摄的时候会把完整的原始数据都存下来,后期调色、变速或者加光影效果都不会损失画质。这相当于直接把“导演剪辑权”交到用户手里了。 不过呢,除了这两个手机机型外,Pad6 Pro也被拉进了这个生态里。这款平板配了顶级的骁龙芯片和4K屏幕,和手机连起来以后瞬间就能把刚拍的视频传过去精修。对于短视频创作者来说,这一套组合简直太方便了,直接就替代了以前那种“手机拍摄+电脑后期”的繁琐流程,出门只带一部手机和一块平板就能搭个移动工作站了。 讲到未来影像的发展趋势啊,vivo现场说得很直白:以后比拼的不是镜头值多少钱,而是谁更懂怎么处理图像。他们把影像系统比喻成了AR眼镜、车载系统甚至家用摄像头的前哨站。AI在镜头后面默默运转着,预测人物的走向、光源的变化还有场景的深度。以后光影处理不再是事后修图了,而是变成了事前预测的事。 至于有人问算力够不够用的问题啊?vivo没多说模型有多大体积的事儿,他们强调的是本地增量学习机制。说白了就是每次用的时候算法都在本地升级一遍,根本不用反复回传到云端去麻烦服务器。苹果还是得靠云端微调才能弄明白图片长什么样,华为则是继续堆砌传感器;而vivo走了一条中间路线:让AI直接在设备本地持续进化。至于专业摄影师担心AI会剥夺自己的表达空间这件事儿呢?vivo没给个直接回应。 不过呢全场发布会的焦点几乎全都集中在这个实时影像AI上面了。你看发布会里几乎一句话都没提5G-A和卫星通信这种新玩意儿。现在的高速网络这么普及了嘛。大家其实更关心设备能不能立刻明白自己眼前看到的是什么世界——vivo用这个本地AI给出了答案,也算是把“拍完再修”这种传统流程彻底变成了过去式咯!