2026年3月9日,在浙江省绍兴市发生了一个让人们警醒的事情。这事儿闹得挺大,起因是有个话题突然火了:一些APP悄悄把我们的全身照片保存下来。大家平时用手机拍大头照时,根本不会想到那些应用程序还在默默记录我们的整个环境和身体姿态。 这听起来很吓人,但其实原理挺简单。人脸识别摄像头一开,就会把它能看见的所有画面都拍下来。算法会从这些全景图里找人脸来验证身份。但这也就把框外的一切都给拍进去了。你穿着睡衣、屋里有什么装饰、桌上放着什么东西,甚至家里有谁走动过,这些全都被传送到了服务器上。 真正让人担心的是这些数据会怎么处理。多数APP的用户协议对这事儿说得含糊不清。有些公司可能是为了审核或者训练模型,真的会有人去查看这些照片。这也就是为什么网友们会分享那种尴尬经历:在浴室、在床上、在私密的环境里认证时,觉得自己好像在“直播”。 这次事件让人焦虑的核心在于“知情同意”原则出了问题。我们被告知要“刷脸”,就以为对方只需要“脸”的信息。没有哪个APP会清清楚楚地告诉我们:“请注意,摄像头正在拍摄全景图像。”这种关键信息的缺失让用户的授权变得没有意义。 我们以为交出了“门票”,结果对方拿走了整个“手包”。舆论的持续发酵是一次强烈的安全警报。在数字世界里,“人脸”只是信息索取的开始。一旦工具能顺便获取我们的居家环境和生活习惯,就潜藏了很大的风险。 这些被偷偷保存下来的环境信息如果泄露了或者被用于其他用途后果会很严重。监管部门得赶紧跟上脚步才行。必须要求企业遵循“最小必要”原则,限定采集范围,并且建立清晰的数据留存和销毁机制。应用平台也得把摄像头的实际情况、数据用途和留存时间告诉用户。 在这次关于个人数字边界的博弈中保持警惕很重要。下次做人脸识别之前除了穿好衣服还得问问自己:这个APP到底想从我这里看到多大的世界?