八部门出台网络信息分类新规划出“灰色地带”边界 2026年起更精准护航未成年人上网

我国未成年网民规模已突破1.8亿,互联网成为青少年获取信息、社交互动的重要空间。但数字经济快速发展过程中,网络空间的隐性风险更加突出:部分平台为追逐流量,刻意生产带有性暗示、炫富拜金等内容;个别账号滥用未成年人形象进行低俗营销;算法推荐又可能放大不良信息传播。这些问题正在影响青少年价值观形成,治理压力持续加大。此次出台的分类管理办法聚焦关键症结,首次将以往笼统的“可能影响”细化为可执行的分类标准。办法重点规范四类信息:诱导不良行为的内容、扭曲价值观的表述、不当使用未成年人形象的呈现以及违规披露个人信息的行为。比如明确提出,不得利用未成年人打造争议人设,并严禁在弹窗、热搜等显著位置展示不良信息。 政策设计的亮点主要体现在三个上:技术上,要求建立分级预警机制,对敏感内容设置醒目标识;责任上,继续压实平台审核义务,特别强调算法不得向未成年人推送负面信息;协同上,推动形成政府监管、平台自律、家校共育相衔接的保护体系。该办法与去年施行的《未成年人网络保护条例》相互衔接,推动网络治理从“泛化管理”转向“分类施策、精准治理”。 中国人民大学社会治理研究中心专家表示,新规落地后有望带来三方面变化:一是为内容生产划出更清晰的红线,预计每年可减少30%以上的不良信息曝光;二是促使平台加快审核技术升级,头部企业已启动新一代AI识别系统研发;三是增强家长监护能力,通过更明确的提示与标识,提高风险识别和防范意识。 从国际视角看,该办法提升了我国未成年人网络保护的规范化水平。在借鉴欧美有关治理经验的同时,我国将价值观引导纳入监管范围,并提出“不当使用未成年人形象”的判定标准,为数字时代儿童权益保护提供了可参考的制度路径。

网络空间已成为亿万未成年人学习与生活的重要场域,营造健康有序的网络环境,关系到下一代成长。此次分类办法回应了现实问题,也推动涉及的制度继续细化落地。下一步,从规则执行到技术支撑,从平台落实到社会共治,仍需持续发力。只有把制度要求真正转化为治理效果,才能为未成年人在网络世界筑起更可靠的“保护网”,护航他们在数字时代安全成长。