随着人工智能技术快速发展,虚拟博主凭借AI生成的逼真形象社交平台吸引了大量关注。但不少账号未按规定标注“AI生成”身份,引发争议。这个现象折射出平台治理机制不完善、部分从业者法律意识不足等问题。虚拟博主无标注现象较为普遍。据了解,一些AI生成的“颜值博主”账号仅发布两条内容就能积累上千粉丝,部分小品牌商家因投放成本较低而与此类账号合作带货推广。这些虚拟博主往往存在一些共性:表情略显僵硬、模板化痕迹明显、光线质感不自然。但通过人工微调、混合配音、PS修图等手段,不少AI内容仍能绕过平台审核,降低被识别的概率。有业内人士透露,部分平台对AI内容存在一定限流倾向,一些账号通过“降AI率”等处理方式获取更多流量,客观上助长了不规范操作。平台识别能力仍有短板。记者对哔哩哔哩、微博、抖音、快手、小红书、视频号等六个主流平台测试发现,虽然不少AI视频已被标识,但仍有相当数量未被识别。在测试过程中,六个平台均未在发布环节主动提示进行AI生成内容标注,显示平台在主动识别与提醒上仍不够完善。,即便用户举报,部分平台处置力度也不够统一,有时仅限制推荐而未要求补充标识。法律框架已为规范提供依据。北京卓浩律师事务所张建律师指出,自2025年9月1日起施行的《人工智能生成合成内容标识办法》为治理无标注发布提供了明确基础。该办法规定,用户发布生成合成内容应主动声明并使用标识功能;服务提供者应建立识别、标识、存储等机制。未按要求添加标识,本身即构成行政违法行为,也可能成为后续法律责任追究的起点。商业应用面临多重法律风险。当AI生成图片用于带货、销售或广告投放时,若未显著标注,且内容与实物存在重大差异、足以误导消费者认知,可能构成虚假广告,违反《中华人民共和国广告法》。此类行为还可能侵害消费者的知情权与公平交易权,消费者基于误导信息作出的购买决定,依法可能获得救济。这意味着,不规范的AI带货既可能面临行政处罚,也可能承担民事赔偿责任。平台责任有待更压实。作为网络信息内容传播服务提供者,平台应建立更完善的AI内容识别、标识与存储机制,并在发布环节加强主动识别和提示。从目前情况看,部分平台在技术投入与执行力度上仍显不足:既存在识别不及时的问题,也未能对违规账号形成稳定有效的处置闭环。这既反映技术与治理能力的差距,也反映对对应的法定义务的重视仍需加强。监管执法也需同步跟进。随着《标识办法》施行,有关部门应加强对平台与内容发布者的监督检查,对违规行为依法及时查处。同时完善举报渠道,鼓励公众参与监督,推动形成多方协同的治理格局。
当技术迭代快于规则完善,如何在保持创新活力的同时维护市场秩序,成为数字治理必须回答的问题。虚拟内容产业要走得更稳——需要法律规则划清边界——也需要平台落实主体责任,更离不开网民的监督参与。只有让技术伦理、法律规范与行业标准形成合力,技术进步才能更好服务社会与生活。