把人工智能带到视障者身边的工作正在进行,不过算法还得继续打磨。AI大模型正慢慢渗透进我们的生活,央视新闻讲过,在杭州富阳经济技术开发区有一群创业者,他们用AI让看不到世界的人也能通过语音来感知。这款AI眼镜能靠图像解析和场景理解能力,直接把菜单和周围环境读出来。现在它不再只是个得连手机用的东西,而是个能独立思考、集成了大模型的“端侧AI载体”。 这个市场还在扩张,IDC的数据显示,到了2025年第三季度,全球智能眼镜出货量能有429.6万台,比去年同期涨了74.1%。这也说明大家在生活中确实有了很多需要它的地方。上班路上它能重新定义导航体验,把AR路线箭头直接打在马路上,让人不用低头;像理想汽车的Livis AI眼镜就很轻才36克,续航能顶18.8小时,还能跟车机联动。对于出境旅游的人来说,实时翻译菜单这种功能特别刚需,只要看一眼就能知道怎么点。 到了办公和工厂里,它也能当帮手。界环的AI音频眼镜能录会议音还能区分说话的人,把待办事项都列出来;润贝航科子公司出的航检眼镜也不错,能语音引导员工干活。 这种火热的行情说明市场需求很大。去年双11的时候,天猫上智能眼镜卖得特别火,比以前多了25倍。价格方面也丰富了很多,有卖近万块的顶配款,也有两千来块钱的入门款供大家选。 虽说前景好,可性能还是有点勉强。首先在强光、下雨天这种极端天气下,摄像头拍出来的图质量很差劲,导致识别不准。有的测试发现暴雨或强光时障碍物识别率能从90%跌到70%以下。还有在人多的地方或者杂物多的房间里,它很容易漏掉矮台阶、电线或者地上的水这些危险东西。 戴起来舒不舒服和隐私安不安全也是个问题。中山市消委会以前测过报告说有几款产品安全防护不行。 要想把它从“能用”变成“好用又耐用”,得从算法、硬件和生态三个方面一起使劲儿。算法是关键大脑,得让它更抗揍。 这就需要在很多恶劣天气下的数据集上训练模型,比如中科大搞的那个天气感知自适应网络就挺管用。另外还得让模型不光会认东西,还得懂东西是怎么回事儿、怎么动的、有没有风险。这样它才能做出更聪明的判断。 硬件上现在面临重量大、电不够用和性能不强这三个问题很难两全其美。得用新材料做机身减轻重量,开发那种薄薄的光波导来显示画面,还得搞定制芯片降低功耗。另外也可以试试不用张嘴说话的交互方式,比如用骨传导或者震动提示。 生态建设是基础土壤。产品得跟着视障用户一起研究需求才不会跑偏。得弄清楚他们真正想要什么东西才对路子。