八部门发布网络信息分类办法 为未成年人构建精准防护体系

当前未成年人互联网普及率已达96.8%,但网络空间中不良信息渗透、价值观误导等问题愈发突出。调查显示,近七成青少年曾接触过不当网络信息,其中暴力、炫富、畸形审美等内容,对处于心智发育期的未成年人影响尤其明显。此次出台的《办法》,正是对该社会关切作出的制度回应。 《办法》将风险信息细分为四大类型:一是行为诱导类,包括性暗示、网络暴力等可能引发模仿的不良行为示范;二是价值观扭曲类,涵盖炫富拜金、“读书无用论”等错误观念;三是形象滥用类,聚焦利用未成年人摆拍牟利等不当商业行为;四是隐私侵犯类,明确限制对未成年人个人信息的非必要披露。这一分类将原本较为抽象的原则要求细化为可操作的执行标准。 中国社会科学院专家指出,分类标准的细化具有多方面治理意义。一方面,有助于统一监管实践中的判断尺度,使平台内容审核更有依据;另一方面,通过列举典型场景,为家长和学校提供更清晰的识别参照。值得关注的是,新规将“网红儿童”“算法推荐”等新型风险纳入视野,体现出对现实变化的及时回应。 责任落实层面,《办法》建立了更明确的约束机制。网络平台不得在首页首屏、热搜等关键位置推送风险信息,算法推荐系统需建立面向未成年人的过滤机制。对专门面向未成年人的产品和服务,则设置更严格的“全面禁止”要求。内容生产者需履行显著标注义务,视频类内容应在片头设置警示标识。 法律界人士分析,这种“源头管控+过程监督+终端提示”的治理路径,意味着我国未成年人网络保护正从原则要求走向更精细的落地措施。通过将道德倡导与法律规范衔接,既守住“不得违法”的底线,也明确“不宜传播”的边界,为《未成年人保护法》网络专章实施提供了配套细则。 随着新规落地,预计将带来三上影响:一是促使平台完善内容审核与推荐机制,二是提升家庭和学校的风险识别与防范能力,三是为跨境数据流动背景下的未成年人保护提供可借鉴的思路。下一步,有关部门或将建立动态调整机制,结合技术发展和业态变化持续完善分类标准。

守护未成年人就是守护未来。网络治理既要明确不良信息的边界,也要压实平台责任,还要推动家庭、学校与社会在同一尺度下形成合力。把风险边界讲清楚,把治理链条衔接好,把提示与防护做到位,才能让未成年人在数字时代拥有更踏实的安全感,也推动网络生态持续向清朗有序迈进。