深度合成冒用公众人物形象再引关注:霍启刚称已处置数千条虚假视频

问题——深度合成“以假乱真”抬升识别难度; 霍启刚3月23日社交平台发文称,近期再次发现多条盗用其形象与声线的合成视频,有关内容并非其真实表达,连身边工作人员也要看一段时间才能辨别。他还提到,有账号将其过往涉港表述片段进行再加工,拼接到“移民渠道”等营销内容中,可能误导受众并造成财产损失。霍启刚表示,随着相关技术普及,近半年此类情况明显增多,已处理几千条假内容,并安排专人每日投诉反馈,但仍不断出现新增内容。不少网友在评论区表示“确实难分辨”,也反映出公众在识别新型伪造内容上的压力。 原因——技术门槛下降与流量利益驱动叠加。 一上,深度合成工具迭代加快,音视频生成成本更低、效率更高,使“批量生成、快速分发”成为可能;另一方面,部分账号以流量变现为目的,利用公众人物的辨识度与影响力吸引点击,导流带货或引向外部交易,形成“盗用形象—获取关注—转化牟利”的链条。过程中,发布者往往以“二次剪辑”“虚拟创作”等说法淡化甚至回避显著提示,导致受众误把合成内容当作当事人真实表态。平台在海量内容审核、跨平台搬运以及账号频繁更替等情况下,也面临识别与处置的时效压力。 影响——侵权与安全风险交织,扰乱网络传播秩序。 深度合成伪造不仅损害被盗用者的肖像权、名誉权与声音权益,还可能带来更广泛的社会风险:其一,误导公众认知,削弱信息可信度,影响舆论场的理性讨论;其二,为网络诈骗、虚假营销提供“可信外壳”,把公众人物的“背书效应”变成欺骗工具;其三,冲击影视与内容行业生态,出现演员形象被冒用、作品被拼接改造等问题。此前,多名演员遭遇“换脸”或“高度相似”短剧传播引发争议。3月20日,北京互联网法院通报一起相关案件,认定短剧制作方擅自使用深度合成技术生成与某演员高度相似形象构成侵害肖像权;播出方未尽合理审查义务亦需承担相应责任。该裁判表达出清晰信号:技术可以使用,但边界不能突破;传播链条各环节都应承担相匹配的注意义务。 对策——强化“技术识别+规则约束+责任闭环”综合治理。 从治理路径看,应在“预防、识别、处置、追责、教育”上形成闭环。 第一,平台应把“真实性提示”和“风险拦截”前置化。对深度合成内容强化显著标识、来源说明与水印机制,提高用户辨识度;完善对公众人物相关生成的限制措施,减少可被滥用的工具入口。部分企业已在模型端限制生成明星、公众人物等真实人物的肖像与语音,为行业提供了可参考的做法。 第二,健全审核与处置机制,提高侵权响应效率。对被侵权者的投诉举报建立更明确的处理时限与复核流程,提升对“搬运号”“矩阵号”的联动打击能力;对疑似引流诈骗、诱导交易等行为加强风险提示、交易链接拦截与账号处置。 第三,依法打击侵权与犯罪行为,提高违法成本。法律界普遍认为,只要合成内容在公众层面能够指向特定自然人,就可能构成对肖像等人格权益的侵害;若利用相关技术实施侵权并造成严重后果,可能面临更严厉的责任追究。对“合成冒充—引流变现—实施诈骗”的链条,应加强取证协作与跨平台联动,推动行政监管、司法裁判与平台规则协同发力。 第四,提升公众识别能力与媒介素养。面对“看似真实”的音视频内容,公众应增强核验意识,涉及资金转账、投资移民、课程培训等高风险事项,更要通过权威渠道多方验证。全国两会期间,有文艺界人士也提示,可依法投诉、报警应对“换脸”侵权与诈骗,并呼吁行业主动学习新技术、推动规范应用。 前景——在鼓励创新与守住底线之间建立可持续秩序。 深度合成技术在影视制作、数字创意、无障碍传播等领域具有现实价值,但外溢风险同样不可忽视。未来一段时间,随着生成能力增强与传播速度加快,“逼真度提升”与“治理精细化”将长期并行。可以预期,司法裁判将继续明确边界,平台规则将更强调可追溯与强提示,行业也将探索更成熟的授权机制与数字水印标准。只有把技术创新纳入法治轨道与公共治理框架,才能让新技术更好服务社会,而不是成为侵权与欺诈的工具。

当技术迭代速度快于法律更新,这场关于数字身份安全的应对不仅需要司法机关划清更明确的红线,也需要平台企业承担起技术伦理责任;如何在技术创新与权利保护之间取得平衡,将成为衡量社会数字化成熟度的重要标尺。(完)