网络平台重拳整治AI生成内容乱象 逾1.3万违规账号被处置

问题——生成合成内容“可逼真、易复制”,但少数账号“为流量不顾底线”。据“网信中国”消息,近期一些网络账号发布生成合成图片、音视频等信息时不按规定添加显著标识,通过虚构感人故事、炮制猎奇事件等方式误导公众;还有账号利用换脸、声音仿真等手段假冒公众人物发布不实言论、售卖“祝福”“拜年”视频牟利;个别账号编造火灾等突发事件现场画面混淆视听;也有账号将未成年人喜爱的动画角色进行“魔改”,传播低俗惊悚、血腥暴力内容;更有甚者公开分享去除标识教程、工具并进行售卖,意图为违规传播“拆除防线”。 原因——技术门槛下降叠加流量驱动,使违法违规成本外溢。一上,生成合成工具迭代迅速,普通用户即可批量生成“像真照片”“像真视频”,并以短视频、直播、社交平台快速扩散;另一方面,部分账号将平台推荐机制与节日热点视为“流量窗口”,以“故事化包装”“情绪化剪辑”吸引转发评论,在广告分成、带货引流、付费定制等利益刺激下铤而走险。,个别主体对标识规范、版权边界、人格权保护等规则认识不足,甚至刻意逃避监管,推动“去标识工具”“教程”形成灰色链条,增加治理难度。 影响——误导舆论、扰乱秩序、侵害权益,风险在节日场景更易放大。生成合成内容若不标识、被恶意利用,容易造成公众对信息来源的误判,挤压真实信息传播空间,破坏网络生态。假冒公众人物发布不实言论,不仅可能引发舆情波动,还会侵害肖像权、姓名权、名誉权等合法权益,扰乱正常市场秩序。编造灾害事故现场画面易引发恐慌,影响社会公众对突发事件的判断与应对。针对未成年人群体的低俗暴力“魔改”内容,会对其价值观与心理健康造成不良影响。更值得警惕的是,传播“去标识”方法实质是为虚假信息披上“隐身衣”,削弱治理措施的可执行性,诱发更多模仿扩散。 对策——强化源头标识与平台审核,压实主体责任,形成“发现—处置—追责”闭环。网信部门表示,已督促网站平台深入排查整治,依法依约处置账号13421个,清理违法违规信息54.3万余条,并通报典型案例:如部分账号发布所谓“狗在高铁站救下婴儿”“狗拆炸弹救人”“鳄鱼伤人”等视频未作标识,借虚构故事博取流量;部分账号以换脸、声音仿真等方式假冒运动员、演员、主持人、企业家等公众人物吸粉引流,或未经授权售卖定制“祝福”“拜年”视频;还有账号发布生成的虚假火灾现场图片、视频恶意炒作;一些账号“魔改”动画角色传播低俗暴力内容;另有账号和店铺分享、售卖去除标识教程和工具,涉及的内容与商品已被依法依约处置并下架。下一步,应持续完善显著标识标准与展示方式,推动平台提升识别检测能力与人工复核强度,对“多次违规”“组织化运营”“链条化牟利”依法从严处置;同时加强对公众人物权益、未成年人保护、虚假灾情谣言等重点领域的专项治理。对普通用户而言,发布生成合成内容应自觉标识来源,避免“图一乐”变成“造谣端”。 前景——规则完善与技术治理并进,才能让新技术在规范中释放正向价值。生成合成技术本身具有广阔应用空间,在影视制作、教育科普、文旅传播等领域可提升效率与体验。但其健康发展必须以清晰边界为前提:一是“标识先行”,让受众一眼可辨;二是“权利保护”,防止人格权、版权被侵害;三是“场景管控”,对灾害事故、公共安全、金融投资等高风险领域加强审核;四是“链条打击”,对去标识工具、代做代发等灰产露头就打。随着治理规则更细化、平台责任更压实、公众媒介素养持续提升,网络空间有望实现“技术向善、传播有序”。

AI技术是一把双刃剑。在为内容创作和信息传播带来便利的同时,也为虚假信息的传播提供了新的工具。此次网信部门的集中整治,既是对违规行为的有力制止,也是对网络生态秩序的重要维护。更深层的启示在于,技术的发展必须与规范相伴随,创新的自由必须建立在诚信和责任的基础之上。只有当平台、监管部门、技术开发者和广大网民形成共识,共同维护网络信息的真实性和可信度,才能让AI技术真正成为造福社会的力量,而不是成为欺骗和误导的工具。