近年来,我国未成年网民规模持续扩大,网络已成为学习、娱乐和社交的重要空间;,网络信息传播速度快、形态多、更新频繁,未成年人辨别能力和自我控制能力相对不足,更容易受到不良信息的心理暗示和行为诱导。一些内容虽未触及法律明令禁止的“红线”,却可能潜移默化中影响价值观和行为习惯,形成治理上的“灰色地带”。因此,八部门联合发布《可能影响未成年人身心健康的网络信息分类办法》,旨在把原则性要求细化为可操作规则,为识别、处置和整改提供更清晰的依据。 从问题看,当前未成年人网络保护的矛盾,已从“明显违法内容拦截”延伸到“存在有害倾向内容的精细治理”。例如,带有性暗示、性挑逗的擦边内容,以嘲讽贬低、标签化攻击为特征的网络暴力信息,以及诱导未成年人非理性充值打赏的消费陷阱等,常借助热搜、榜单和算法推荐快速扩散,容易引发模仿、攀比、冲动决策,甚至带来心理困扰。再如,宣扬奢靡享乐、炫富拜金、消极颓废等价值导向偏差内容,可能影响未成年人对劳动、财富与人生目标的认知。部分账号利用未成年人形象摆拍演绎不当言行、恶搞炒作争议人设“吸粉带货”,也可能造成对未成年人权益的二次伤害。个别场景中,未成年人学习生活细节被过度曝光,甚至在未获监护人同意的情况下披露敏感信息,埋下隐私泄露与人身安全风险。 从原因看,一是信息形态变化增加了识别难度。短视频、直播、图文混剪等形式更强调情绪表达与强刺激呈现,内容边界更容易模糊。二是流量驱动放大风险。一些内容生产者为追逐关注度,采用“擦边”“猎奇”“争议化”叙事制造传播爆点。三是算法推荐的放大效应不容忽视。当平台以停留时长、互动率等指标为主要优化目标时,容易出现“越看越像、越推越极端”的信息茧房效应,未成年人更可能被卷入不适宜内容链条。四是此前对“可能有害但难定性”的内容缺少统一分类标准,导致平台审核尺度不一、监管处置依据不足,影响治理效率。 从影响看,《办法》以分类方式建立治理抓手,有助于形成“可识别、可提示、可限制、可追责”的闭环。一上,分类细化将推动平台把抽象要求落到审核规则、产品机制与处置流程上,减少“尺度不一”带来的执行偏差。另一方面,“重点位置不呈现”等要求直指传播链条关键节点,有望降低不适宜内容对未成年人的高频触达。再者,强调显著提示标识与引导机制,有助于提升公众和内容生产者对未成年人保护的共同认知,让网络空间形成更明确的行为预期。 从对策看,《办法》围绕四类重点信息提出了针对性的治理要求,并对主体责任作出明确安排。其一,强化内容呈现管理,要求网络产品和服务提供者不得在首页首屏、弹窗、热搜、榜单、推荐、精选等醒目位置呈现涉及的信息,把“关键入口”作为治理重点。其二,完善显著提示标识机制,既明确发布者的提示义务,也要求平台提供标识功能并规范引导,推动提示从“自觉”转为“制度要求”。其三,健全技术保障措施,对提供算法推荐等服务的主体提出安全管理制度与技术措施要求,强调不得向未成年人推送可能影响其身心健康的信息,并明确在专门面向未成年人的产品和服务中不得传播相关内容。上述安排表明了从内容生产、分发到呈现的全链条治理思路,也为后续执法监管提供了更可对照的操作依据。 从前景看,办法实施将推动未成年人网络保护向精细化、协同化迈进,但落地效果仍取决于多方共同发力。平台层面,需要以办法为基准细化标准,提升对不良行为诱导、价值观偏差、隐私泄露等复杂场景的识别能力,完善审核、限流、提示、投诉与未成年人模式等功能,推动从“被动拦截”向“主动供给优质内容”转型。内容生产者应强化底线与规则意识,避免以未成年人形象博流量、以争议叙事换点击。监管层面,可结合既有法规制度,推动执法衔接与标准统一,形成可评估、可复盘的治理机制。家庭与学校也应加强数字素养教育,帮助未成年人建立健康使用习惯和风险识别能力,实现制度治理与教育引导相互补位。
从“粗放式拦截”到“精准化治理”,针对未成年人网络保护的这次制度完善,既回应了技术发展带来的现实挑战,也着眼于长期的社会发展需求;只有让法律规则与技术治理形成合力,才能更有效地守护青少年健康成长的网络环境。