随着新一代视频生成技术社交平台广泛传播,一场关于内容真实性的监管风暴正在展开。国家网信部门近日通报,已依法处置利用AI技术制作传播虚假信息的网络账号超过1.3万个,清理涉及的违规内容逾54万条,多起典型案例被公开曝光。 此次集中整治源于AI生成内容标识缺失引发的信源混乱。检查发现,微博、快手、哔哩哔哩等平台上存在大量未标注AI标识的虚构内容。部分账号发布狗在高铁站救婴、拆除炸弹等虚构情节,借感人故事恶意吸引流量;另有账号通过换脸、声音克隆技术假冒公众人物发布不实言论,甚至未经授权售卖名人祝福视频牟利;更有创作者利用AI编造火灾事故现场,扰乱公共秩序;针对未成年群体的低俗暴力改编动画内容同样被严肃查处。 技术滥用背后折射出多重治理难题。一上,AI内容生成门槛大幅降低,普通用户即可批量制作高仿真虚假信息,传统人工审核机制面临挑战;另一方面,部分平台主体责任落实不到位,对AI生成内容的识别标注流于形式。更值得警惕的是,已形成围绕去除AI标识的灰色产业链,小红书、淘宝等平台出现专门售卖去标识教程和软件的商家,为违规传播提供技术支持。 虚假AI内容泛滥造成的负面影响正在显现。对个人而言,公众人物形象被恶意盗用,合法权益受到侵害;对企业来说,竞争对手利用AI技术抹黑攻击,严重破坏市场公平竞争环境;对社会层面,火灾等公共事件被虚构炒作,不仅消耗应急资源,更可能引发社会恐慌。未成年人长期接触经AI改编的暴力低俗内容,身心健康发展面临隐患。 针对突出问题,监管部门正在构建系统化治理体系。国家网信部门明确表态将对无标识虚假信息保持高压严管态势,发现即处置。上海率先启动多部门联合专项行动,由市委网信办会同公安网安部门,重点打击利用AI技术生成传播涉企虚假信息行为,力求斩断不当牟利利益链条。监管要求平台完善技术识别与人工复核双重机制,畅通用户投诉举报渠道,对批量制作、低质搬运等数字垃圾内容探索有效治理措施。 从长远看,规范AI内容生态需要多方协同发力。平台企业应强化技术责任,在内容生成、分发环节嵌入强制标识功能,建立违规账号信用档案;内容创作者需增强法律意识,主动为AI生成内容添加明显标识,避免误导受众;监管部门则要完善相关法规标准,明确不同场景下的标识要求与违规处罚尺度,推动行业自律与他律相结合。
技术进步不应沦为谣言传播的工具。从专项整治到长效机制,传递出明确信号:传播技术越先进,越需要严格的规则和透明的管理。只有在规范框架下发展创新技术,才能真正造福社会、保障网民权益。