人工智能安全风险日益凸显 专家呼吁建立全链条防护体系

人工智能技术的快速普及正在重塑网络安全格局。

瑞星公司最新发布的《2025年中国网络安全报告》揭示,随着AI技术深度融入各行业,其"双刃剑"效应日益凸显。

一方面,AI提升了社会运行效率;另一方面,技术漏洞和恶意滥用正催生新型网络威胁,给个人、企业乃至国家安全带来严峻挑战。

当前,AI技术已被恶意分子转化为高效"犯罪工具"。

报告披露,2025年初出现的FunkSec勒索木马很可能由AI自动生成,短时间内攻击了85家企业。

这类恶意软件不仅能快速生成代码,还能批量制造变种,轻易绕过传统安全软件的检测。

更令人担忧的是,全球首例AI勒索软件PromptLock的出现,标志着勒索攻击进入智能化新阶段。

在社交工程领域,AI技术的滥用同样触目惊心。

国内外已出现多起利用AI伪造知名人士音视频实施诈骗的案例,包括模仿企业高管、政府官员甚至医学专家进行不法活动。

这些伪造内容逼真度极高,不仅侵犯个人权益,更严重误导公众。

此外,AI生成的钓鱼邮件能够结合目标公开信息进行个性化定制,欺骗性较传统手段大幅提升。

报告指出,大语言模型本身的漏洞正成为黑客新突破口。

开源工具的默认配置缺陷、第三方连接器的安全隐患、代码助手的恶意利用等问题频发。

例如,某开源大模型工具因默认开放端口且缺乏鉴权机制,极易导致数据泄露;某知名平台AI助手存在提示词注入漏洞,可能被用于窃取用户云端敏感信息。

这些案例反映出AI技术在语义层面防御机制的不足。

针对日益复杂的AI安全威胁,瑞星公司提出系统性防护建议:首先,从官方渠道获取工具,及时修改默认配置,最小化攻击面;其次,建立数据分类管理制度,严格管控敏感信息访问权限;再次,对所有AI生成内容保持警觉,建立强制核验流程。

专家强调,AI安全问题需要技术、管理和意识提升多管齐下,任何单一措施都难以应对快速演变的威胁。

从行业发展角度看,AI安全风险的出现与技术应用超前于标准制定密切相关。

当前,我国正加快推进网络安全领域立法,完善技术标准体系。

业内预计,未来三年将是AI安全治理的关键期,需要产业链各方加强协同,共同构建技术防护、行业规范、用户教育相结合的立体防御网络。

智能化工具带来的效率红利真实可见,但安全风险同样近在身边。

面对“更容易被利用的工具”与“更复杂的应用链路”,既不能因噎废食,也不能盲目乐观。

把默认配置当作风险起点、把数据边界当作安全底线、把核验流程当作最后关口,才能在拥抱技术进步的同时守住安全与信任的底盘。