全国人大代表建议立法规范未成年人社交平台使用 拟设16岁"数字成年年龄"门槛

问题:未成年人触网呈现明显低龄化趋势。社交平台的即时互动、短视频和直播内容叠加算法推荐,容易放大沉迷风险和不良信息暴露。近年来,未成年人网络霸凌、隐私泄露、诱导打赏充值、低俗内容传播等问题引发的社会关注持续升温。一些家长反映,孩子校外上网行为更隐蔽、时间更长,学习与生活节律被打乱,心理健康以及人身、财产安全也存潜在风险。 原因:一是身份核验和账号管理仍有薄弱环节,个别平台实名认证走过场,未成年人冒用成人信息注册并不少见。二是青少年模式多为“自愿开启”,对监护人数字能力要求较高,导致“功能有但没用”的情况普遍,保护效果打折。三是部分产品以使用时长和互动为导向,通过自动播放、连续推荐、强刺激内容提升黏性,未成年人更难自我约束。四是平台生态层次复杂,除头部平台外,一些小众应用和新兴社交产品更容易成为治理盲区,内容审核、投诉处置和风险提示机制不够完善。 影响:如果缺乏有效的分龄管理和系统治理,未成年人可能因过度使用出现睡眠不足、注意力下降、学业受影响等问题;在社交互动中可能遭遇语言攻击、群体排斥、恶意传播等网络暴力;在隐私保护上也可能因风险识别能力不足被诱导泄露个人信息,甚至造成财产损失。更深层的影响于,算法放大的情绪化、对立性内容可能干扰价值判断,增加心理压力和焦虑风险,影响青少年身心发育与社会化过程。 对策:针对上述情况,田轩建议明确16周岁为未成年人使用社交平台的“数字成年年龄”,并推动平台对未成年人账号默认、强制开启青少年模式,将保护措施前置并制度化。具体可从以下上联合推进: 第一,完善分龄规则与账号体系。探索通用账号与学生账号“双轨制”,按年龄段匹配差异化功能权限、内容供给和互动边界,形成更清晰的分级管理框架。 第二,提高身份核验的准确性与可执行性。在合规前提下,推动平台与权威数据源开展核验协同,减少冒用身份绕过机制的空间,从源头提升未成年人识别能力。 第三,加强算法与产品设计治理。围绕诱导沉迷的关键机制,提升推荐策略透明度,完善时长管理与交互限制,减少“无限刷”和强刺激内容对未成年人的持续牵引,推动形成更有利于学习与成长的内容生态。 第四,压实平台主体责任。提升内容审核质量与处置效率,畅通未成年人投诉举报渠道,建立快速响应与复核机制;同时向监护人、学校提供更清晰的使用提示和风险报告,提高监护可见性。 第五,形成监管与社会共治合力。有关部门可结合未成年人网络保护有关规定,加强抽查评估与执法检查,对落实不到位的平台依法依规处理,并将整改成效与平台服务资质、产品上线评估等机制衔接。学校应加强网络素养与法治教育,家庭强化陪伴与规则共建,社会增加体育、阅读、科普等线下公共服务供给,为青少年提供更多可替代的健康活动场景。 前景:从国际实践看,一些国家已就未成年人使用社交媒体设定年龄门槛并强化平台义务,反映出各国对未成年人网络风险的共同关切。专家指出,制度设计需要在保护与发展之间取得平衡,避免简单化“一禁了之”,应着眼于分龄管理、技术可行、责任清晰,以及可监督、可评估。随着未成年人网络保护法规体系优化、平台治理能力持续提升、社会共治逐步深化,“默认开启青少年模式”、明确“数字成年年龄”等措施有望深入压缩漏洞,提高保护的确定性与可操作性,为青少年健康触网提供更稳固的制度支撑。

未成年人关乎家庭与社会的未来;网络空间开放且具匿名性,带来信息获取便利的同时,也增加了不法侵害和有害内容传播的风险。保护未成年人网络安全既是法律要求,也是全社会的共同责任。涉及的建议回应了当前的突出问题,呼应了不少家长和教育工作者关注。下一步,关键在于尽快推动建议落地为可执行的制度安排,并形成平台、监管部门、学校与家庭的协同机制。只有把规则做细、把责任压实、把监督落到位,才能为未成年人营造更安全、更健康的网络环境,让他们在数字时代安心成长。