具身智能面临物理世界攻击威胁 科学家揭示视觉语言模型安全漏洞

问题:具身智能在现实落地中,安全风险正从“网络入侵”延伸到“环境操纵”。研究指出,自动驾驶、无人机、配送机器人等系统越来越依赖能同时理解图像与文字的视觉语言模型完成导航、识别与任务规划。这类能力在提升适应性、降低部署门槛的同时,也带来新的攻击面——攻击者无需入侵系统、无需接触通信链路,只要在真实环境中布置带有特定内容的文字信息,就可能干扰模型对场景的理解与行动选择,进而触发危险行为。 原因:一是多模态模型对文本指令天然敏感。在复杂场景中,文字常被模型视为高优先级线索,用来补足不确定的视觉信息;当恶意文本被包装成“看似合理的提示”时,模型可能将其误判为任务涉及的指令。二是具身系统决策链条更长且环节紧密。视觉理解结果会直接进入规划与控制模块,一旦上游感知被误导,下游动作就可能被“连锁放大”,导致路线偏移、错误降落、偏离目标搜索等后果。三是现实环境开放且易被篡改。路标、海报、提示牌等载体普遍存在、更新频繁,在公共空间中也可能被低成本替换或覆盖,为“间接提示”提供了可操作的入口。研究首次将这类风险概括为“环境间接提示”,强调其不依赖传统意义上的远程攻击能力。 影响:从安全边界看,这类攻击改变了行业对威胁模型的常见划分。过去,自动驾驶与机器人安全更多围绕传感器故障、对抗样本、通信与系统漏洞等展开;而“环境文字劫持”把风险前移到公共空间治理与内容可信度层面,使“看得见的文字”也可能成为关键安全变量。研究团队围绕自动驾驶导航、无人机紧急降落、目标搜索等典型任务,设计并验证名为“CHAI”的攻击框架:先优化攻击文本的可执行性,再从颜色、大小、位置等视觉属性入手提高触发概率。实验结果显示,该方法可对不同模型与系统产生操控效果,在无人机场景的模拟测试中成功率最高达95.5%。这意味着在缺乏有效防护的情况下,具身智能在开放环境中的规模化应用可能面临新的公共安全挑战:轻则任务失败、服务中断,重则诱发交通与空域风险,并带来责任认定复杂、监管成本上升等连带问题。 对策:业内专家认为,应以“可验证、可落地”为目标,尽快补齐多模态具身系统的安全体系。其一,建立面向物理环境的安全评测基准与红队测试机制,将“环境文字提示”“指示牌篡改”“可疑海报”等纳入必测项,形成可复现的攻击场景库与评估指标。其二,完善模型侧防护策略,强化对环境文本来源可信度的判断与指令分级机制,例如引入“任务授权门槛”,对高风险动作设置二次确认、可信区域限制或多传感器交叉校验,避免单一视觉线索直接触发关键决策。其三,加强系统工程层面的冗余与失效保护,在感知不确定或出现异常提示时优先进入保守策略,如降级行驶、悬停等待、返回安全点等,降低误导信息带来的动作幅度。其四,推动公共空间标识与信息载体的规范化管理,在关键区域加强巡检与溯源,探索机器可读的可信标识体系,为系统提供“可信提示”的技术基础。其五,在法规与责任体系上提前讨论,明确不同环节的安全义务与证据要求,降低事故后的争议成本。 前景:具身智能把算法能力延伸到道路、园区与城市空间,是产业升级的重要方向。随着多模态模型加速进入汽车、无人机与机器人平台,“看得懂图像与文字”将成为常态能力,也会持续暴露新的安全挑战。业内预计,未来竞争焦点不仅是识别精度与交互体验,更在于对开放环境不确定性的处理能力,以及可解释、可验证的安全保障。谁能率先建立覆盖“模型—系统—场景—治理”的闭环安全标准,谁就更可能在规模化部署与社会信任上占得先机。

科技进步往往伴随新的风险与挑战。此次研究提醒我们,在加速拥抱智能化的同时,也要正视并管理潜在安全隐患。只有依靠持续的技术改进与可执行的安全标准,才能让智能系统真正成为生活与生产的助力,而不是新的风险来源。