一、问题:深度合成侵权从“猎奇娱乐”滑向“社会风险” 近日——演员王劲松社交平台发文称——有账号利用深度合成技术盗用其声音与口型,生成高度逼真的“本人视频”,并在多个账号间转发扩散。他随即发起投诉,平台回应已对涉及的内容进行删除或限制推荐等处理。王劲松在留言中表示担忧:随着合成质量不断提高,若未来被用于诈骗等更恶劣用途,亲友乃至公众将更难辨别真伪。 类似情况并非个案。此前一段时间,网上出现大量将他人面部特征“移植”到经典影视片段的短视频,当事方也公开质疑这类内容是否构成侵权,以及平台是否尽到管理义务。接连发生的事件表明,深度合成内容正逐步走出“二次创作”的模糊地带,触及人格权保护、内容治理与公共安全等多条底线。 二、原因:技术门槛降低与流量利益驱动叠加,治理链条仍存短板 一是技术扩散带来“低门槛复制”。深度合成工具越来越易用,素材获取、模型套用、批量生成的成本持续下降,推动“换脸”“换声”从小范围尝试走向规模化生产。 二是流量变现放大违规冲动。部分账号以“吸睛”“整活”为噱头获取关注,再通过广告、带货、引流等方式获利。在收益可观、违规成本偏低的情况下,侵权更容易形成链条化、重复化。 三是识别与取证面临现实困难。深度合成内容传播快、跨平台流转频繁,原始发布源头不易锁定;同时,内容被二次剪辑、去水印、换账号发布后,证据固定、因果证明与损失举证难度增加,客观上抬高了维权门槛。 四是平台规则与处置尺度仍需细化。一些平台对“合成内容是否必须显著标识”“何种程度构成侵权或误导”等界定不够清晰,审核标准不一致;处置多停留在删除、限流等措施,难以对违规者形成有效震慑。 三、影响:侵权损害叠加“信任危机”,更可能被犯罪利用 其一,直接侵害公民人格权益。未经同意合成他人面容、声音并公开传播,容易造成名誉受损、误解扩散,影响当事人正常生活与社会评价。对公众人物而言,不当言论与形象被“嫁接”后,可能引发更大范围的误判与舆论波动。 其二,破坏网络内容生态与传播秩序。深度合成若成为“低成本爆款”的常用方式,将挤压真实创作空间,助长标题党、恶搞化、碰瓷式流量竞争,削弱平台公信力。 其三,诱发诈骗等衍生风险。深度合成“换声换脸”与社交场景叠加,可能被用于冒充熟人、伪造权威信息、实施精准诈骗,深入推高社会治理成本。王劲松的担忧具有现实指向:当“看起来像、听起来像”变得普遍,社会信任机制将受到冲击。 四、对策:以法律刚性约束为底座,推动平台治理与执法反诈联动 从制度层面看,我国已对相关行为划出红线。网络音视频信息服务管理、内容生态治理等规定要求对非真实音视频信息进行显著标识,并禁止利用新技术从事违法活动;《民法典》也明确不得以伪造等方式侵害他人肖像权,为处置“换脸”侵权提供了法律依据。下一步关键在于提升规则落地的可操作性与执行力。 一是压实平台主体责任。平台应完善深度合成内容管理机制,在上传、审核、推荐、二次传播等环节强化识别与拦截;对疑似合成且未标识、易致误导的内容提高审核强度。对多次违规账号实施阶梯式处置,让惩戒力度与违规收益不成正比。同时,建立更便捷的投诉与快速处置通道,提高响应效率。 二是完善标识规范与可追溯机制。推动统一、醒目的合成标识要求,探索在生成、发布、传播链条中嵌入可验证的来源信息,增强“谁生成、谁发布、谁负责”的可追责性,为后续维权与执法提供支撑。 三是降低权利救济成本。鼓励平台提供证据留存与下载功能,推动司法、监管与平台在电子数据固定、侵权认定、损失评估等形成更顺畅的衔接。对情节严重、造成恶劣社会影响的,依法追究相应责任,形成震慑。 四是纳入反诈治理体系。对可能用于诈骗的深度合成内容,加强与反诈预警、涉诈线索处置、账号资金链追查等环节的协同。对利用合成技术冒充特定身份实施诈骗的,依法从严打击,坚决切断黑灰产链条。 五、前景:技术应用需与规则同步进化,形成“可用、可管、可信”的新秩序 深度合成技术本身也有正当用途,例如影视制作、数字文旅、无障碍传播等。关键在于建立清晰边界与可验证机制,让创新在法治轨道内运行。未来,随着合成技术持续迭代,治理也应前置:在标准制定、算法审核、身份认证、传播溯源、跨平台协作等上形成系统方案,减少“事后删帖式”治理的被动局面。对公众而言,提高媒介素养、增强风险意识、及时留存证据并依法维权,同样是保护自身权益的重要一环。
AI技术的发展不可逆转,但技术进步不应成为侵权的温床。当前,法律与监管正加快跟进技术演进,但不能只停留在条文层面,还需要在执行、处罚与协作等环节形成合力。只有当平台责任、法律制裁与社会监督构成更完整的约束体系,AI才能真正服务公众,而不是成为侵权工具。这既关乎个人权益,也关乎社会秩序。