土耳其拟立法严控未成年人社交媒体使用 15岁以下用户将全面受限

近年来,未成年人沉迷网络、接触不良信息以及遭遇网络诱导等问题在多国持续引发担忧。

土耳其政府拟通过立法方式,对未成年人使用社交媒体设定更明确的年龄门槛:拟规定社交媒体平台不得向15岁以下用户提供服务或允许其创建账户,并要求平台建立有效的内容过滤与风险拦截机制。

该法案计划于1月底前提交议会相关委员会审议,显示土方试图以更具约束力的制度手段应对数字平台治理难题。

问题在于,社交媒体平台的产品机制与传播模式,使未成年人更易暴露在“算法推送—高频使用—情绪波动—行为偏差”的链条中。

一方面,信息流推荐、短视频连续播放、即时互动反馈等设计强化黏性,未成年人自我控制能力相对不足,更容易出现过度使用甚至沉迷;另一方面,开放式社交与匿名性增加了不良信息传播和陌生人接触的概率,极端内容、欺凌言论、诈骗诱导等风险更难被家庭单独识别和阻断。

土耳其有关部门表示,相关立法筹备已持续较长时间,其间广泛征询意见,意在构建系统性保护机制,而非仅依赖家庭“单打独斗”。

从原因看,土方推动立法的直接动因主要集中在三方面:其一,未成年人心理与情绪健康风险上升的社会担忧不断累积,越来越多研究与案例将抑郁、焦虑、行为障碍等问题与过度社交媒体使用相关联;其二,平台商业模式与未成年人保护目标存在内在张力,当未成年人被视作潜在流量与广告对象时,公共治理需要设定更清晰的底线规则;其三,犯罪网络与灰色产业链借助社交平台触达未成年人、实施诱导的风险增加,推动政府从“事后处置”转向“源头防控”。

在此背景下,“将更多责任归于平台”成为土方政策表述中的关键导向。

就影响而言,若相关法案落地,平台端合规压力将显著上升。

平台可能需要在账户注册、身份核验、内容推荐、私信与陌生人互动、举报处置等环节加强技术与管理投入,以证明其具备“有效过滤”和“阻止未成年人开户”的能力。

同时,家庭与学校的引导方式也可能随之调整:一方面,家长对“平台必须承担责任”的预期会提高;另一方面,未成年人可能转向替代应用、使用成人账户或通过技术手段绕开限制,这对监管与平台治理提出更高要求。

对土耳其而言,这一立法尝试也可能引发关于个人信息保护、身份核验边界、规则执行可操作性等配套议题的讨论,需要在未成年人保护与隐私安全之间取得平衡。

对策层面,土耳其拟采取的路径具有明确的“责任链条”思路:以年龄限制作为准入门槛,以平台不得提供服务或开户作为硬性要求,以过滤与拦截机制作为技术支撑,以立法强化可执行性与可追责性。

考虑到数字平台跨境运营、产品迭代快、合规成本高等现实,制度设计还需进一步细化执行标准:例如如何界定“有效过滤”、如何评估平台是否尽到合理义务、平台违反义务的处罚机制如何设定、监管部门如何开展审计与抽查等。

与此同时,公共部门也需要同步推进数字素养教育、校园心理支持与家庭指导体系建设,避免把治理目标仅压在技术手段上。

从国际趋势看,土耳其的立法动向并非孤例。

澳大利亚已针对16岁以下人群实施社交媒体准入限制,并对不配合的企业设定高额罚款;丹麦、马来西亚、新西兰等国也在研究类似措施。

这表明,围绕未成年人社交媒体使用的治理,正在从倡议式提醒转向制度化约束,从个人自律转向平台问责,从单一手段转向综合治理。

可以预期,未来各国监管可能在年龄门槛、内容安全、算法透明、商业化约束、心理健康保护等方面提出更系统的规则要求,并推动平台把未成年人保护纳入产品设计的“默认选项”。

前景上看,土耳其若在近期完成立法推进,执行效果将取决于三项关键因素:一是身份核验与隐私保护能否同时做到可靠与克制,避免“为管而采、过度收集”;二是对平台责任的界定是否清晰可执行,既能形成约束,也能避免规则空转;三是能否形成政府、学校、家庭与平台协同的长期机制,既减少风险暴露,也为未成年人合理使用数字技术留出空间。

在数字化生活已深度嵌入青少年成长轨迹的当下,治理的目标不应只是“禁止”,更应是“可控、可教、可持续”。

未成年人保护是公共治理的底线议题,也是数字时代的共同课题。

土耳其拟立法限制低龄群体使用社交媒体,折射出各国对平台责任与社会成本重新评估的现实选择。

如何在保护与发展之间把握尺度、在监管与创新之间建立平衡,将考验制度设计的精细化水平与治理能力的现代化程度。

只有把规则落到可执行、可评估、可协同的机制上,才能让数字技术真正成为成长的助力,而非风险的放大器。