围绕未成年人网络内容安全与生成式内容快速扩张之间的矛盾,全球头部视频平台再度站上舆论与监管的交汇点。多名儿童发展领域研究者和机构近日联名致信谷歌及其旗下视频平台负责人,要求YouTube及YouTube Kids中停止向未成年人推荐生成式视频,并对其传播机制作出更严格的限制与审查。 问题在于,面向儿童的生成式视频数量增长明显,一些作品以“早教”“启蒙”“识字”“认知训练”等名义吸引观看,但在内容结构、信息密度、知识准确性及表达逻辑上较为薄弱,甚至出现重复拼贴、情节跳跃、语言失真等现象。专家担忧,这类以低成本批量生产为特征的内容,正在挤压优质原创儿童节目空间,并对儿童注意力维持、情绪调节、现实与虚构的辨识能力形成潜在干扰。更值得关注的是,过度屏幕时长可能占用儿童进行同伴互动、户外活动和亲子交流的时间,而这些现实场景对社会性发展具有不可替代的作用。 导致上述问题的原因,既有技术与产业层面的推动,也与平台分发机制和商业激励密切有关。一上,生成工具降低了视频制作门槛,个体创作者或小型团队可以短时间内生成大量内容并快速测试流量反馈;另一上,平台推荐系统倾向于放大“高点击、强刺激、易重复”的内容形态,容易使低成本内容通过数量优势持续获得曝光。此外,儿童内容赛道中,家长的“省时诉求”和儿童的“即时吸引”叠加,也为同质化内容提供了传播土壤。专家团体指出,当前关于生成式内容对儿童长期影响的系统性研究仍不充分,在证据尚未明晰的情况下扩大推送,可能使儿童群体被动参与一场缺乏边界的“真实世界实验”。 影响层面,争议已从内容质量扩展到平台责任与合规路径。专家认为,即便平台对“合成或修改内容”设置提示或标签,但对尚未具备阅读能力或理解能力有限的儿童来说,文本或图标提示难以发挥有效告知作用;而对家长来说,面对海量更新的视频库,单纯依赖手动屏蔽也成本较高。更广泛的外部环境同样加剧平台压力。近期,围绕未成年人使用社交与内容平台可能遭受伤害的司法裁决和公共讨论不断升温,平台是否需要调整包括推荐算法在内的核心机制,正成为社会关注焦点之一。 对于上述批评,平台上回应称,面向儿童的产品已设置更严格的内容标准,生成式内容仅允许来自少数被认为“高质量”的频道,并提供家长管理与屏蔽选项;在更大范围内,也要求创作者对合成内容进行披露并对相关内容作出标注。平台同时强调,低质内容的大规模生产并不必然获得持续分发,将通过治理机制进行限制。平台负责人此前亦公开表示,将把治理“低质生成内容”作为未来一段时期的重要工作之一,并强调生成式内容并不等同于低质量。 在对策层面,行业内外普遍认为,仅依靠“标签提示”与个别频道准入难以回应儿童保护的核心关切,更需要一揽子治理组合:其一,针对儿童账户和儿童内容场景,建立更严格的“默认不推荐”或“强审慎推荐”机制,对生成式内容实行更高门槛的前置审核与分级管理;其二,提升“教育类”标签的真实性与可验证性,引入专家评审、第三方评估或权威机构认证,减少以“教育”名义进行流量套利;其三,优化家长控制工具的人机交互方式,提供一键式时长管理、内容白名单和主题过滤,并强化对监护人的风险告知;其四,平台应提高透明度,定期披露儿童内容治理数据、违规处置与推荐策略调整方向,接受社会监督。 前景判断上,随着生成式内容生产成本持续走低,儿童内容领域的供给将更膨胀,平台治理将从“事后下架”转向“源头约束”和“算法减速”。在全球范围内,未成年人保护立法和执法趋势趋严,平台若不能在推荐逻辑、商业化路径与儿童发展规律之间建立更稳固的安全边界,相关争议可能持续发酵,并反向推动更强制性的外部规制。此外,如何在限制低质内容的同时保留高质量创作空间,避免“一刀切”影响教育与科普创新,也将考验平台精细化治理能力。
在技术快速发展的时代,如何保障未成年人的网络安全已成为重要议题;这场关于AI内容治理的讨论,本质是对科技伦理的深刻反思。正如联合国儿童基金会数字政策顾问玛丽亚·帕帕佐格鲁所说:“技术进步的最终标准,始终是它对下一代的影响。”各方需牢记:商业模式的边界,绝不能以牺牲儿童健康成长为代价。