近日,国家网信办、国家新闻出版署、教育部等八部门发布《可能影响未成年人身心健康的网络信息分类办法》,自今年3月1日起施行。
这是我国首次以部门联合发文的形式,对影响未成年人身心健康的网络信息进行系统性、细化的分类界定,标志着网络生态治理进入更加精准、更加科学的新阶段。
当前,互联网已成为未成年人学习、娱乐、社交的重要平台。
然而,网络空间中存在的不良信息、不当内容也对未成年人身心发展造成了现实威胁。
长期以来,虽然相关法律法规对网络信息管理作出了原则性规定,但在实际执行中,如何界定"不良信息""有害内容"等概念,仍存在模糊地带,导致平台、监管部门、家长、学校在判断标准上缺乏统一认识,难以形成有效合力。
这一问题的存在,既影响了网络生态治理的精准性,也给未成年人带来了防护漏洞。
为解决这一现实问题,八部门经过充分调研和论证,将影响未成年人身心健康的网络信息界定为四大类。
第一类是可能引发或诱导未成年人模仿不良行为的信息,包括涉及性暗示、网络暴力、诱导非理性追星打赏等内容;第二类是可能对未成年人价值观造成负面影响的内容,涵盖炫富拜金、畸形审美、"读书无用论"等错误观念;第三类是不当使用未成年人形象的信息,包括利用未成年人摆拍牟利、通过恶搞未成年人博取关注等行为;第四类是不当披露未成年人个人信息的行为,涵盖未经监护人同意展示不满十四周岁未成年人的学习、生活等场景。
这种精细化的分类体现了多方面的进步。
一方面,它基于网信部门多年网络生态治理实践的深入总结,既涵盖了传统的风险隐患,也针对直播带货、网红儿童等新业态带来的新型问题进行了规范。
另一方面,分类标准既守住了法律底线,也划定了道德红线,使原本模糊的概念得到了清晰界定,让各方在判断是否违规时有了明确依据。
专家指出,这种清晰的分类标准有助于实现未成年人网络保护的精细化和协同化,把保护工作从事后补救、分散治理转向事前预防、系统治理。
在明确风险边界的基础上,《办法》对网络平台和内容生产者提出了刚性约束。
在信息展示方面,网络平台不得在首页首屏、热搜、弹窗、榜单等醒目位置呈现可能影响未成年人身心健康的信息,从源头上减少未成年人接触不良内容的机会。
针对算法推荐、生成式人工智能等新技术应用,《办法》强调平台必须建立健全安全管理制度,严禁向未成年人推送风险信息。
对于专门以未成年人为服务对象的网络产品和服务,更是全面禁止制作、传播相关不良信息,体现了对未成年人群体的重点保护。
在提示机制上,《办法》做出了详尽规定。
内容生产者需在信息展示前,通过文字提示、通用符号等形式在显著位置标注风险内容;平台则要提供专属标识功能,引导用户规范提示。
针对不同信息载体,《办法》明确了具体的提示位置标准:文本类信息在起始、末尾或中间适当位置标注,视频类信息在起始画面设置标识,确保提示醒目有效。
这种多层次、全方位的提示机制,既能帮助未成年人自我识别和规避风险,也便于家长、教育工作者进行有效引导和管理。
《办法》的出台还意味着未成年人网络保护从单一主体治理向多元主体协同治理转变。
政府部门通过明确规则和标准进行宏观指导,网络平台通过完善技术手段和管理制度进行源头治理,家长通过提示标识进行家庭教育引导,学校通过网络素养教育进行人才培养。
各方基于同样的标准进行判断和行动,形成了纵向的监管体系和横向的协同机制,织密了保护未成年人的网络安全网。
同时,《办法》的实施也对相关产业发展提出了新的要求。
内容生产者需要调整创作策略,更加谨慎地处理涉及未成年人的内容;平台企业需要投入更多资源完善技术系统和审核机制;互联网企业的社会责任意识也需要进一步提升。
这些变化虽然在短期内可能增加企业成本,但从长期看,有利于建立更加健康、更加规范的网络生态,最终促进整个产业的可持续发展。
未成年人网络保护既是公共治理命题,也是社会文明程度的标尺。
分类办法以更精细的规则回应新风险、新场景,释放出“以制度确定性对冲网络不确定性”的信号。
把标准立起来,把责任压下去,把协同机制建起来,才能让技术进步与内容生态更好服务青少年成长,让网络空间真正成为有益于下一代的公共空间。