八部门联合出台新规 加强未成年人网络信息分类管理

随着我国未成年网民规模突破2.3亿,网络信息生态对青少年成长的影响愈发明显。调查显示——当前网络环境中——除明显违法信息外,大量处于监管“模糊地带”的内容正通过算法推荐、社交传播等渠道影响未成年人价值观的形成。这类信息常以娱乐化方式呈现,却可能夹带不良行为暗示、畸形审美引导等风险,给家庭教育和学校管理带来新的压力。此次出台的《办法》针对治理难点,首次建立较为系统的分类框架,将监管重点明确为四大类:一是诱导不良行为的信息,包括性暗示、网络暴力、非理性消费诱导等;二是扭曲价值观的信息,如宣扬拜金主义、消极颓废等不良导向;三是滥用未成年人形象的内容,包括恶意炒作未成年人形象博取流量等;四是违规使用未成年人个人信息的行为。更细的分类补上了此前判定标准不够清晰问题,使“可能影响”的判断更便于落地执行。 在监管机制设计上,《办法》提出全链条治理要求:平台不得在首页首屏、热搜推荐等重点位置推送不良信息;建立醒目的提示制度,对敏感内容强制添加警示标识;并明确算法推荐服务不得向未成年人推送不当信息。这些措施一上压实平台审核与管理责任,另一方面也帮助用户更容易识别风险信息,形成双向保护。 中国政法大学传播法研究中心专家表示,新规的突出之处在于带来三个转变:从被动处置转向主动预防,从粗放管理转向精准治理,从单一监管转向多元共治。数据显示,2023年全国清理涉未成年人有害信息超过1200万条,但由于标准不统一,各地执法尺度存在差异。此次分类办法的出台,为基层执法提供了更明确的依据。 实施层面,各网络平台需在两年过渡期内完成三项重点工作:升级内容审核系统,建立面向未成年人的专属内容池,完善用户身份识别机制。监管部门将结合《未成年人网络保护条例》建立联合惩戒机制,对违规行为采取“黑名单”管理等措施。教育部门也将同步推进网络素养教育,计划到2025年实现全国中小学网络安全课程全覆盖。

保护未成年人,就是守护社会的未来。面对传播更快、形态更复杂的网络环境,既要用制度划清边界,让责任可追可究,也要通过优质内容供给和网络素养教育提升“内生免疫力”。把规则落实到产品设计、算法治理和日常运营细节中,推动协同共治形成合力,才能让未成年人在更清朗的网络空间中获取知识、享受乐趣、健康成长。