八部门出台未成年人网络信息分类新规:划清“红线”压实平台责任护航成长

当前,互联网已成为未成年人学习、生活、娱乐的重要阵地。

据统计,未成年人触网率持续攀升,他们在网络空间接触的信息对身心健康和价值观塑造产生深刻影响。

然而,网络空间中除了法律明令禁止的违法信息外,还存在大量界定模糊、可能对未成年人产生潜在负面影响的"灰色地带"信息。

这些信息既不属于明确违法范畴,又具有隐蔽性和迷惑性,给监管工作带来了巨大挑战。

长期以来,对此类信息缺乏明确的分类标准和治理依据,导致网络平台和内容生产者在处理相关问题时缺乏清晰指引,监管部门也难以形成统一的执法标准。

这种状况不仅影响了未成年人网络保护的有效性,也制约了网络生态治理的精细化水平。

为解决这一突出问题,国家互联网信息办公室会同教育部、文化和旅游部等七个部门联合发布了《可能影响未成年人身心健康的网络信息分类办法》,这是我国未成年人网络保护法治体系的重要完善。

该办法将相关网络信息系统梳理为四大类。

第一类是可能引发或诱导未成年人模仿不良行为的信息,包括带有性暗示、性挑逗等易使人产生性联想的内容。

第二类是可能对未成年人价值观造成负面影响的信息,涵盖宣扬奢靡享乐、炫富拜金、漠视生命、畸形审美等不良价值观的内容。

第三类是不当使用未成年人形象的信息,如利用未成年人形象摆拍演绎不良剧情或进行商业化包装。

第四类是不当披露和使用未成年人个人信息。

这一分类体系具有高度的科学性和针对性,特别是对近年来社会关注的"网红儿童"现象进行了明确规范,填补了规则空白。

在治理手段上,该办法与现有的《网络信息内容生态治理规定》相协同,将"防范抵制"与"显著提示"确立为核心治理机制。

这一做法体现了精细化、引导性的治理思路,并非简单粗暴的删除处理,而是在保障成年人合法权益的同时,为未成年人及其监护人提供风险警示。

这种"疏堵结合"的治理方式有助于培养未成年人的信息鉴别能力和批判性思维,实现了从单一围堵到科学引导的治理演进。

该办法进一步压实了网站平台的主体责任,明确规定不得在首页首屏、弹窗、热搜、榜单、推荐等醒目位置和重点环节呈现可能影响未成年人身心健康的信息。

这一规定直指当前算法推荐模式的弊端,旨在从源头减少未成年人的被动接触风险。

同时,办法要求提供算法推荐、生成式人工智能等服务的平台,建立健全安全管理制度和技术措施,防范技术滥用风险。

对于专门以未成年人为服务对象的产品或服务,办法严格禁止呈现基于算法的内容信息,确保专属空间的纯净性。

这些条款将平台责任从原则要求具体化为全链条操作规范,推动平台企业从被动处理向主动防控转型。

为适应网络技术快速迭代的现实,该办法展现出前瞻性与灵活性的特点。

分类标准建立在多年来治理实践经验的基础上,同时也为新型风险预留了动态更新的空间。

这种制度设计既能应对当前突出问题,又能适应未来技术发展带来的新挑战,体现了法治建设的科学性和前瞻性。

未成年人网络保护是一项系统工程,需要法律法规、平台责任、家庭监护和社会监督的多方合力。

此次《办法》的出台,不仅填补了制度空白,更体现了国家对未成年人健康成长的高度重视。

在数字化浪潮中,如何平衡发展与保护、自由与责任,仍将是我们需要持续探索的课题。

唯有与时俱进完善治理体系,才能为未成年人撑起一片清朗的网络天空。