一、问题:深度伪造技术滥用,侵权与诈骗双重威胁浮出水面 近日,知名演员王劲松在社交平台发文称,有人使用深度伪造技术盗用其形象,生成高度仿真的视频并在视频平台传播。王劲松表示,视频在声音还原和口型匹配上几乎可以乱真,连家人也难以分辨。涉及的视频在投诉后虽被下架,但他仍担心类似技术被用于更严重的诈骗。 这种担忧并非空穴来风。近年来,多地已出现利用人工智能实施电信诈骗的案件,手法更隐蔽、危害也在加深。 二、原因:技术门槛降低,犯罪成本大幅压缩 深度伪造的核心,是通过机器学习对人脸、声纹等生物特征建模,进而生成逼真的虚假影像或音频。随着算法开源、工具普及,相关技术不再是少数专业机构才能掌握的能力,普通人也能上手。 办案人员介绍,“换脸”诈骗通常需要收集目标对象一定数量、不同角度的照片用于训练模型,但模型一旦完成,就可能在视频通话中实现实时换脸,让受害人从画面上难以察觉异常。,声纹合成也更成熟,只需少量语音样本即可生成相似度很高的仿真音频,更降低了作案门槛。 三、影响:多起案件造成严重财产损失,社会信任基础受到冲击 司法机关披露的多起案件,呈现了深度伪造在诈骗中的具体用法及其危害。 上海市闵行区人民检察院办理的一起案件显示,犯罪团伙在短视频平台发布由人工智能生成或拼接的虚假视频,引导被害人添加联系方式后实施情感类诈骗。一年内,15名被害人合计被骗171万余元。 最高人民法院近日发布的典型案例则反映了另一种套路:犯罪分子安排同伙上门取款,同时远程用声纹合成技术模仿被害人亲属声音,通过电话骗取老人信任,致使三名老人当场交出现金共6万元。 宁夏银川另一起案件中,某公司部门经理张先生接到视频来电,对方以“老板”形象出现,称情况紧急要求立即转账。张先生在视频中确认“对方”身份后,十余分钟内将20万元转入指定账户,直到当面汇报工作才发现受骗。办案民警指出,该案使用的“换脸”技术已能在实时通话中完成面部替换,迷惑性很强。 这些案例表明,深度伪造的滥用不仅带来直接财产损失,也在更深层面冲击社会信任:当视频和声音都不再可靠,公众的日常判断与决策将面临更大不确定性。 四、对策:技术防范、法律规制与公众教育须合力推进 应对深度伪造带来的新型风险,单靠一种办法难以奏效,需要多方联动。 技术层面,平台应加快部署深度伪造内容的识别与拦截能力,对可疑视频加强主动审核,减少传播空间。同时,可推动更可靠的身份核验方案在高风险场景落地,为视频通话等场景提供更有力的真实性验证。 法律层面,现有规则对深度伪造相关行为仍存在适用与衔接上的问题。司法机关可进一步明确此类行为的定罪量刑尺度,加大对利用深度伪造实施诈骗、侵权的打击力度,并推动完善配套制度,降低受害者维权成本。 公众教育层面,应持续开展防骗提示:遇到视频或语音提出转账汇款要求,务必通过独立渠道二次核实,不要只凭单一通讯方式下结论,对“情况紧急、马上转账”等催促话术保持警惕。 五、前景:技术治理与伦理规范建设任重道远 随着深度伪造技术持续迭代,生成内容会更逼真、识别也更难。长期来看,如何在鼓励技术创新与防范安全风险之间找到平衡,仍是监管部门、科技企业与社会各界需要共同面对的课题。
从“像不像”到“信不信”,智能合成带来的挑战直指社会信任的底层规则;面对更逼真的伪造手段,既不能因噎废食,也不能掉以轻心。只有平台把好入口、监管完善规则、司法形成震慑、公众提高警惕,才能在技术快速演进中守住安全边界,让网络空间更清朗、社会交往更可信。