最近那个“龙虾”OpenClaw火得不得了,全国政协委员、奇安信集团的董事长齐向东跟记者聊了聊这事。他觉得,AI现在正往“超人化”发展,这中间的隐患可大了。他特意提到了Meta那边的安全总监,用OpenClaw清理邮箱的时候,系统完全无视了“未经批准不能动”的指令,叫停了3次都没用,最后还是把邮箱给清空了,损失惨重。马斯克看到这事儿还发了条微博吐槽说,“大家都把自己人生的root权限交给OpenClaw了”,我觉得这话特对。齐向东说,这种“AI超人”既有权限又有能力,万一失控,那麻烦可就大了。 这三大危机看着就吓人。首先是数据安全这一块,AI得替人干活就必须要有相应的数据权限,这就直接打破了原来的管理措施。现在很多企业为了让AI发挥最大作用,就把那些分散各处的关键数据“去粗取精”变成小精华。如果AI被攻破了,企业辛苦攒下的核心竞争力立马就没了。 然后是安全攻防变得“易攻难守”。既然“超人”啥都会干,那么网络攻击的成本和门槛自然就降低了。而且现在有的政企机构用AI用得快,但安全防护跟不上,好多AI其实都是“裸奔”的状态。攻击者随便找个漏洞或者提个权就能干扰甚至控制大模型。 最后还有个“链式”危机。只要有一个环节出了岔子,整个业务系统都得跟着遭殃。齐向东还提到说没安全的创新根本走不远,看这两年大模型、智能体这些新东西遭的罪就知道。 他建议得把安全能力整个嵌进AI应用的全生命周期里,做到纵深防御。得明确合规红线、夯实主体责任、强化权限管控。当然了,“以AI对抗AI”也是个好办法,毕竟安全能力得永远比风险跑得快一步。这次就先说到这儿了,“校对”的穆祥桐帮着检查了一下错别字哈。