开源智能体“龙虾”走红背后风险加速显现:统筹发展与安全推动规范应用

近期,开源AI智能体在国内产业界应用热度持续上升,但随之而来的安全风险也引发了广泛关注。

中国信息通信研究院副院长魏亮在接受采访时指出,这类新型智能体在创新应用的同时,呈现出高速发展与安全风险严重失衡的突出矛盾,亟需建立系统的防护体系。

从技术特性看,开源智能体与传统开源软件和普通AI工具存在本质区别。

传统开源软件功能相对单一,权限清晰、依赖关系简单,安全风险相对固定且有标准修复策略。

而开源智能体集成了高权限、自主决策、开放指令等特性,本身就存在极强的高风险性和不确定性。

魏亮总结了开源智能体的四个典型风险特征。

其一是风险性更高,由于要求高权限且功能边界不清晰,可能导致系统被完全接管和持久化控制,造成数据信息全面沦陷。

其二是隐蔽性更强,具备自主决策和指令执行能力使得安全风险从显式操作转化为静默接管,极难及时发现。

其三是扩散速度极快,外部接口众多且默认信任,叠加自主执行能力,安全风险易从被动触发演变为主动扩散。

其四是可审计性不足,决策黑箱、行为自主的特性导致日志不完整且易被篡改,溯源难度大。

现实中已出现多起因使用不当导致的安全事件。

根据工业和信息化部网络安全威胁和漏洞信息共享平台的监测,国内外均发生过用户数据被误删除、敏感信息遭泄露、企业办公网瘫痪的情况。

更为严重的是,部分智能体资产被黑客攻击后沦为僵尸木马主机,对外发起恶意攻击,造成了实际的财产损失和安全威胁。

面对这些挑战,业界需要采取多层次的应对策略。

中国信通院建议从三个方面推进国内AI智能体开源生态建设。

首先要坚持安全与开放并重,既要鼓励开展AI框架、模型、技能的研发应用,也要完善安全技术标准,降低对单一开源项目的依赖,提升供应链韧性。

其次要统筹新技术发展和安全,在产品快速迭代的过程中建立相应的安全防护机制。

第三要构建全生态治理机制,完善开源社区、开发者、安全机构间的互动和协同,形成安全治理的良性循环。

工业和信息化部已将安全使用建议归纳为"六要六不要",包括定期自查互联网暴露情况、不将智能体实例暴露到互联网等具体措施。

这些规范为企业建立技能供应链安全审核机制提供了基本遵循。

智能体技术如同一把双刃剑,在斩开效率枷锁的同时,也划出了安全的新课题。

如何在技术创新与风险防控之间找到平衡,将成为决定其能否真正赋能产业的关键。

正如魏亮所言:“安全不是创新的对立面,而是可持续发展的基石。

”唯有构建起与技术发展相匹配的治理体系,方能在这场效率与安全的博弈中,赢得未来。