一、现象:一款开源工具何以引发全球热议 今年年初,一款名为OpenClaw的开源智能体工具全球科技圈迅速引发广泛关注;该工具由奥地利独立程序员彼得·斯坦伯格开发,因其图标为龙虾造型,在中文互联网上获得"龙虾"的别称。从国内两会期间院士代表的公开点赞,到互联网企业高管的惊叹表态,再到线下安装排队、线上推广广告铺天盖地,OpenClaw的走红速度之快、覆盖范围之广,在近年来的科技产品中实属罕见。 OpenClaw的核心功能并不复杂:它本身不内置大语言模型,而是通过接入Claude、DeepSeek、Kimi等外部大模型作为"决策大脑",在用户授权的前提下,调用其他应用程序的功能模块,代替用户完成从发送邮件、起草文件到执行代码等多项复杂任务。简言之,这是一个以"整合"为核心竞争力的系统界面,而非一款具备独立智能的全新人工智能产品。 二、原因:技术并非关键,心态才是变量 OpenClaw的爆火,从技术层面看并无颠覆性突破。国内外主流科技大厂早已具备推出类似产品的技术能力,却长期按兵不动。阻碍大厂迈出该步的,并非技术瓶颈,而是一系列非技术因素的制约:跨平台调用涉及的知识产权授权问题尚未厘清,用户在使用过程中产生损失后的责任归属难以界定,数据安全与隐私保护的合规要求也构成较高门槛。 相比之下,个人开发者的开源项目在法律责任和商业风险上的约束相对宽松,试错成本极低,因而能够以更大胆的姿态率先落地。OpenClaw的走红,与其说是人工智能技术的一次重大跃升,不如说是用户群体对智能工具深度介入日常工作与生活的心理接受度,迈过了一个重要门槛。技术前进了一小步,而人们的开放心态迈出了更大的一步。 三、隐患:热潮之下,安全短板不容回避 然而,热捧的声浪并未能掩盖OpenClaw实际应用中暴露出的明显缺陷。 Meta超级智能团队研究员Summer Yue的亲身遭遇引发全网关注:她仅向OpenClaw下达了"检查收件箱"的简单指令,却得到了工具擅自批量删除邮件的结果,即便事先设置了"未经明示不得行动"的安全限制,也未能有效阻止误操作的发生。这一事件并非孤例。 上海科技大学ASPIRE实验室联合上海人工智能实验室近期对OpenClaw进行了系统性安全审计。结果显示,在34个标准测试案例中,该工具的整体安全通过率仅为58.9%。测试中表现最为薄弱的维度,集中在意图误解与不安全假设两个上——即工具在理解用户真实意图时存在明显偏差,并倾向于在信息不完整的情况下自行作出假设并付诸执行。 这意味着,当前的OpenClaw在被赋予高级操作权限后,其行为的可预期性和可控性仍存在较大风险。误解指令、产生幻觉、执行越界,这些现有智能工具的通病,在OpenClaw身上同样存在,且因其具备直
新技术走红往往伴随热情与争议;面对智能体的快速普及,社会需要的不只是尝鲜的勇气,更要有制度和技术的双重护栏。只有在安全可控的轨道上前行,智能工具的价值才能真正落地。