国家安全部门警示:开源大模型使用不当或致敏感数据泄露

当前,人工智能大模型正以前所未有的速度融入经济社会各领域,为生产生活带来便利的同时,其伴生的安全风险也日益凸显。

国家安全部近日披露的案例再次敲响警钟,提醒全社会切实重视AI应用中的数据安全问题。

从通报案例看,某单位工作人员在处理内部文件时,直接使用开源AI工具进行操作。

由于计算机系统默认开启公网访问功能且未设置密码保护,导致敏感资料被来自境外的非法IP访问并下载。

这一事件暴露出当前一些单位和个人在使用AI工具时存在的严重认识盲区和防护漏洞。

开源大模型究竟是什么,为何会成为数据泄露的温床?

专家指出,开源大模型是指将模型架构、参数和训练数据免费公开供用户使用的人工智能模型。

当前互联网上可获取的开源大模型数量众多,在推理、代码编写、文本处理、图像识别等领域各具特色。

正因其便利性和通用性,使得这类工具在政府部门、企业机构和个人用户中的应用范围不断扩大。

然而,便利背后隐藏着不容忽视的安全隐患。

数据安全问题是开源大模型最大的风险所在。

用户向AI工具上传的任何文件、图片或其他数据信息,大模型都会自动进行存储和处理,这是其实现数据分析和模型优化的技术基础。

但正是这一工作原理,为数据泄露埋下了隐患。

数据泄露风险主要来自两个方面。

其一,上传至开源大模型的用户数据对模型开发者完全开放,开发者可以利用管理权限随时查看和使用这些数据。

其二,由于许多AI工具本身采用开源架构,黑客可以利用系统漏洞进行攻击,入侵大模型后台系统,从而获取存储其中的大量用户信息。

这意味着,企业的商业机密、个人的隐私信息一旦上传至开源大模型,就已经处于被泄露的风险之中。

案例中敏感资料的泄露还反映出一个更为深层的问题:部分单位和个人对AI工具的安全特性认识不足,防护意识薄弱。

在使用开源框架直接建立联网大模型时,缺乏必要的安全评估和防护措施。

系统默认配置的公网访问权限未被及时关闭,关键数据处理环节缺少密码等基础安全防护,这些都是可以避免的安全失误。

针对这些问题,专家提出了明确的防护建议。

对于普通网民而言,在使用互联网开源大模型时,应当严格遵守信息安全原则,切勿将个人隐私信息、账户密码、身份证号等敏感数据上传至任何开源AI工具。

对于企业和政府机构而言,在使用开源大模型进行数据处理和模型训练时,必须采用私有化部署方式,将所有数据保存在本地或专网环境中,确保内部信息不会泄露至互联网。

虽然私有化部署需要投入相应的基础设施建设和专业技术团队维护成本,但这是保护核心数据安全的必要投资。

此外,相关部门应当加快推进AI安全治理的制度建设,建立开源大模型的安全评估体系和使用规范,对高风险场景的AI应用提出明确的技术和管理要求。

企业和机构也应当建立健全内部的AI工具使用管理制度,对员工进行安全培训教育,提高全员的数据保护意识。

效率与安全从来不是单选题。

大模型带来生产力跃升,也带来数据处理方式的深刻变化。

把敏感信息当作“输入素材”随手上传,看似省事,实则可能打开泄密之门。

守住安全底线,需要每一次点击、每一次上传都保持边界意识,更需要制度、技术与责任闭环同步到位。

只有在安全可控的轨道上推进应用创新,数字化红利才能更稳更久。