现在很多智能机器人开始在生活和工厂里干活,可一到光线暗、东西乱动或者需要细致摆弄的时候,它们常常显得特别笨拙,因为它们很难感知到真正的触摸感。这种情况不仅让它们能干的活儿变少了,也让人担心它们干活安不安全。之所以会这样,是因为以前大家太依赖摄像头看东西了,反而很少去关注它们能不能“摸”到真实世界的东西。比如摸索开关或者拿易碎物品这些事儿,全靠眼睛看肯定不行。 这次在上海发布的白虎-VTouch数据集就是为了解决这个问题。这是由国家地方共建人形机器人创新中心和上海纬钛科技有限公司联手做出来的成果。这套数据集把彩色图像、机器关节的角度信息还有各种接触时产生的压力和变形情况都整合在了一起。他们用自己研发的传感器记录了软压、硬撞、还有滑动等真实的接触动作,总时长超过6万分钟,包含了大概9072万对物体接触的数据。这在全世界范围内都是领先水平。 这套数据集不光填补了过去的空白,还采用了一种新的采集方法,让数据收集效率更高,能用在更多的地方。目前它已经覆盖了家里、工厂、饭店和特种作业这四个大方面的场景,包含了380多种任务、500多种真实物品还有100多种基本操作技能,基本把人们生活和工作中90%的需求都给照顾到了。 这对于打造能理解物理世界并能精细操控的机器人基础模型非常有帮助。长远来看,有了这些数据支持,机器人能更好地适应复杂环境,在医疗护理、精密制造或者紧急救援这些地方发挥更大作用。多模态数据的融合也能给人工智能模型训练提供更丰富的素材,帮助它们在感知、决策和执行这几个环节上有更大的突破。 现在的机器人还在按照预设的指令行事,而将来它们有望做到自主应对动态环境。这种技术从视觉主导转向触觉融合的转变非常重要。这次的发布不仅是个技术突破,还指出了机器人发展的方向。只有把感知和执行这两个环节打通了,机器才能真正理解人类世界并融入其中。在科技和产业结合得越来越紧密的今天,这种探索能为全球智能机器人领域的发展提供重要的经验借鉴。