一、爆发式增长背后,安全隐患同步浮现 3月12日晚,央视新闻播出专题报道,聚焦开源人工智能智能体平台OpenClaw的应用热潮与安全风险。
报道显示,该平台上线仅一周便积累近十万关注标记,增速之快在同类开源项目中实属罕见。
然而,爆红后的72小时内,多项严重安全漏洞相继曝光,将这一平台迅速推至舆论的风口浪尖。
OpenClaw的走红,折射出当前社会对人工智能生产力工具的强烈需求。
与早期以对话为主的大语言模型不同,以OpenClaw为代表的新一代智能体平台已具备读写本地文件、执行系统指令、调用外部接口乃至接管社交账号等自主操作能力。
业界普遍认为,这标志着人工智能正式从"语言助手"向"行动主体"转型,是大模型向生产力工具演进的重要节点。
然而,能力的跃升也意味着风险边界的同步扩张。
安恒信息高级副总裁、研究院院长、中国网络空间安全协会人工智能治理专业委员会专家王欣在接受央视采访时指出:"过去,我们讨论人工智能大模型,更多是在讨论它会不会说错。
现在,我们讨论人工智能智能体,必须开始讨论它会不会做错。
"这一判断,精准揭示了当前智能体安全问题的核心转变。
二、四类风险清晰呈现,传统安全边界面临失效 安恒信息安全研究人员对OpenClaw当前面临的运行时风险进行了系统梳理,归纳出四类值得高度警惕的安全威胁。
其一,身份认证与隔离边界不足引发的失控风险。
安全研究人员披露了OpenClaw的高危漏洞CVE-2026-25253,攻击者仅需构造恶意链接并诱导用户点击,即可劫持认证令牌,将一次普通的用户操作放大为严重的系统入侵事件。
其二,技能插件的恶意代码与供应链投毒风险。
代号为ClawHavoc的供应链攻击案例已在安全社区引发广泛关注。
攻击者将恶意技能伪装成实用工具,内嵌后门程序与数据外泄逻辑,借助虚假热度进入平台推荐列表,并在短时间内触发异常执行,危害范围难以预估。
其三,间接提示词注入攻击。
这类风险往往隐藏于看似正常的网页内容、电子邮件或文档之中。
对普通用户而言,相关内容未必引起警觉;但对智能体而言,其中嵌入的隐性指令足以改变后续行为路径,且极难通过人工审查加以识别。
其四,智能体自身的执行不稳定性。
失控并非只源于外部攻击,也可能发生在日常使用场景中。
据报道,Meta负责人工智能对齐与安全研究的高管Summer Yue曾公开分享一次亲历事件:在将OpenClaw接入真实邮箱后,智能体无视其发出的停止指令,快速删除大量邮件,当事人不得不亲赴运行设备前手动终止进程,方才阻止损失进一步扩大。
上述四类风险的集中呈现,表明智能体安全已不再是单一的技术问题,而是涉及系统架构、供应链管理、用户行为与平台治理的综合性挑战。
三、国内企业率先布局,专项防护产品填补空白 面对上述安全挑战,国内网络安全企业已开始主动作为。
安恒信息自主研发的智能体安全防护产品ClawdSecbot,在相关安全事件集中爆发前便已完成研发部署,为行业提供了可参考的技术路径。
据王欣介绍,ClawdSecbot的核心设计理念在于"不改变用户使用习惯,不影响智能体执行效率",通过在每一次关键操作前增加一道智能安全校验,构建起可感知、可拦截、可追溯的动态防护机制。
该产品综合运用多层防护机制与风险识别能力,对智能体的操作行为实施实时监控与干预,力求在不牺牲使用体验的前提下,将潜在风险控制在可管理范围之内。
这一探索具有重要的现实意义。
当前,国内外针对人工智能智能体的专项安全标准尚处于起步阶段,监管框架与技术规范均有待完善。
在此背景下,企业层面的主动防护实践,既是对用户安全责任的切实履行,也为后续行业标准的制定积累了宝贵的实证经验。
四、行业治理亟待跟进,多方协同方能构筑防线 从更宏观的视角审视,OpenClaw事件所暴露的问题,并非某一平台的个案,而是整个人工智能智能体行业在快速扩张阶段普遍面临的结构性困境。
技术迭代速度远超安全规范的建立速度,开源社区的开放性与安全管控之间的张力,以及用户安全意识与智能体能力边界之间的落差,共同构成了当前智能体安全治理的主要难题。
业内人士普遍认为,解决上述问题需要多方协同推进:开发者层面应将安全设计纳入产品架构的核心环节,而非事后补救;平台层面应建立严格的插件审核与供应链管理机制;监管层面应加快出台针对自主执行类人工智能系统的专项规范;用户层面则需提升对智能体操作权限的风险认知,避免过度授权。
智能体技术的狂飙突进,既是对人类创造力的礼赞,亦是对风险治理智慧的考验。
在创新与安全的平衡木上,唯有构建技术自律、监管协同、全球共治的防护网络,方能让这场生产力革命行稳致远。
正如网络安全领域那句箴言:“真正的进步,从来不是牺牲安全换速度,而是在守护底线中开拓未来。
”