专家提醒人脸识别存隐私风险 公众需增强个人信息保护意识

一、问题:热搜背后折射“看不见的取景范围”焦虑 近期,围绕“人脸认证时记得穿衣服”的讨论在网络集中发酵。

不少用户在评论区自述曾在被窝、卫生间等私密空间完成过人脸认证,担心系统采集到的画面并非仅限于屏幕中显示的人脸框区域。

该话题之所以引发共鸣,核心在于公众对人脸认证“到底拍到什么、会保存什么、谁能看到”的信息并不充分,进而产生对个人隐私外泄的担忧。

二、原因:界面“遮罩”与“真实采集”存在认知落差 引发讨论的科普内容来自复旦大学计算与智能创新学院教授张军平此前发布的视频。

张军平指出,人脸认证界面中常见的圆形或人脸框更多起到“遮罩/引导”作用,摄像头实际覆盖范围可能大于可见区域,因此不建议在洗澡等场景进行认证。

从技术逻辑看,终端摄像头获取的是一定视场角内的连续画面,应用在界面上叠加遮罩,仅改变显示效果,并不必然等同于“只采集框内像素”。

同时,为提升识别成功率,一些系统在采集阶段会保留更完整的图像信息用于对焦、曝光与质量评估,这加剧了用户对“超范围记录”的担忧。

此外,人脸认证常要求用户摇头、眨眼、张口等动作,其目的主要是“活体检测”,用于降低照片、视频或面具等方式的冒用风险。

张军平在相关科普中亦提及,这类机制与社保等场景防范冒领、欺诈密切相关。

安全需求与隐私顾虑叠加,使得公众对人脸认证“既离不开又不放心”的矛盾感更为突出。

三、影响:对个人、机构与行业信任提出更高要求 对个人而言,若用户在私密场景完成认证,画面超出预期可能带来尴尬与不安;一旦平台在采集、传输、存储、调用等环节管理不当,还可能引发更严重的数据泄露风险。

对提供认证服务的机构与平台而言,公众信任是数字化服务的基础。

当前人脸认证广泛应用于金融开户、支付验证、政务服务、社保领取、门禁通行等领域,任何关于“采集范围不透明”“用途不清晰”的疑虑,都可能削弱用户对便捷服务的接受度,进而影响业务推进与社会治理效率。

从行业层面看,热搜再次提示:生物特征信息具有高度敏感性,治理不能只强调“技术可用”,更要重视“规则清晰、边界明确、可被监督”。

四、对策:把“告知—最小化—可选择—可追溯”落到产品细节 一是强化显著提示与场景引导。

认证页面应以更醒目的方式提示“摄像头可能采集更大范围画面”“建议在明亮、背景简洁、着装得体环境下操作”,并在关键节点提示用户确认,减少因信息不对称导致的误操作与误解。

二是坚持最小必要原则,压缩采集与留存边界。

对确需采集的画面范围、清晰度与保存时长,应有明确技术约束;能在本地实时比对完成的,尽量减少上传;确需上传的,应采取加密传输与分级授权,严格限制调取与二次使用。

三是完善替代方案与救济渠道。

在不适宜或不愿进行人脸认证的情形下,提供密码、短信校验、实体证件核验等替代方式,兼顾安全与便利;同时建立查询、撤回授权、删除申请等机制,让用户对个人信息处理“看得见、管得住、追得到”。

四是推动标准与监管协同。

对人脸信息处理的告知义务、目的限定、授权管理、第三方合作边界等,应进一步细化操作规范,并加强抽查审计与违法惩戒,以制度刚性守住数据安全底线。

五、前景:在更强安全需求下走向“可信认证” 随着线上服务深度融入社会运行,身份核验的安全要求只会更高,人脸认证等生物识别手段仍将长期存在。

下一步的关键,不在于“用不用”,而在于“怎么用得更可信”:一方面以隐私保护设计嵌入产品全流程,减少不必要的数据暴露;另一方面以透明可解释的规则重建信任,让用户明确知道采集什么、为何采集、保存多久、谁可访问。

只有把技术能力与治理能力同步提升,数字化便利才能真正转化为可持续的公共服务质量。

人脸识别技术的普及是信息时代的必然趋势,但技术进步与隐私保护之间的平衡需要全社会的共同努力。

用户需要提升自身的技术素养和隐私意识,而企业和监管部门也应加强信息透明度和安全保障。

这次科普热议的背后,是公众对自身权益的觉醒,也是推动技术应用更加规范和人性化的重要契机。