问题:随着移动终端普及和内容形态快速变化,未成年人上网呈现低龄化、社交化、娱乐化趋势。社交娱乐类平台占据了较多使用时长,也带来沉迷、信息过载和不良内容接触等风险。同时,未成年人网络消费同样出现低龄化,打赏、充值与游戏、社交场景叠加,非理性消费以及诈骗、诱导交易等问题交织。家庭和学校事后维权时,常遇到举证难、追责难、处置周期长等现实障碍。 原因:一是账号体系仍存在“实名不实龄”的空间,部分未成年人通过借用身份信息、使用家人设备或第三方账号绕过限制,平台难以及时识别并落实分级保护。二是算法推荐与社交关系链叠加,放大“即时反馈”和“持续停留”机制;未成年人自控和风险识别能力相对不足,更容易被连续内容、陌生互动和利益诱导牵引。三是平台商业模式与治理投入不匹配:未成年用户未必是主要付费群体,却可能贡献流量与活跃度,客观上提高了治理难度。四是现有规则在边界、标准和责任上仍需细化,例如“社交类平台如何界定”“年龄核验应达到何种强度”“违规后如何追责与整改”等,需要更清晰、可执行的制度安排。 影响:如果缺少明确的“数字年龄门槛”和可落地的技术治理,未成年人在深夜使用、陌生人私信、直播互动、诱导打赏等高风险场景中的暴露概率会增加,进而影响身心健康、学习生活秩序和家庭财产安全。从社会层面看,网络诈骗、黑灰产引流、低俗内容传播等链条可能借助未成年人防线薄弱而渗透;对平台而言,治理不足不仅带来舆情与合规风险,也会损害长期用户信任。近年来多地持续加码未成年人网络保护,也反映出社会对“前置防护”和“系统治理”的期待不断上升。 对策:于本宏提出,研究制定未成年人社交媒体保护性管理规定,明确将16周岁设定为未成年人注册使用社交类平台的“数字成年年龄”。在执行层面,建议平台对新增用户实施强制年龄核验,对存量用户逐步排查清理,分别压实“入口把关”和“存量治理”的责任。同时,明确平台对低龄账户应承担的法定义务:默认关闭个性化推荐、夜间禁止推送消息、限制私信与直播功能、设置连续使用时长提醒并建立强制中断机制等,降低沉迷和高风险互动。上述措施强调“可识别、可限制、可追责”,有助于将未成年人保护从“事后处置”更多前移到“事前预防”。此外,规则设计还需打通家庭监护、学校教育、平台技术和监管执法的衔接,在监护人授权、申诉复核、误判纠错、数据合规与隐私保护各上形成闭环,避免“一禁了之”或“一放了之”。 前景:从国际趋势看,部分国家和地区正探索对16岁以下人群使用社交媒体作出更严格限制,并加大对平台未履责行为的处罚力度,说明围绕未成年人在线安全、算法影响与平台责任的讨论正在走深。面向未来,我国推进“数字成年年龄”及配套制度建设,关键在于标准明确、技术可行、监管协同:既要提升年龄核验的有效性,避免流于形式;也要兼顾未成年人合理的信息获取与社会参与需求,防止简单切割将风险外溢到更隐蔽平台和渠道。随着未成年人模式、内容分级、算法透明度和监护工具逐步完善,社交平台治理将更加精细、法治和常态化。
在数字化进程加速的背景下,如何为未成年人建立有效的“数字防火墙”已成为全球共同课题。此次提案回应了现实痛点,也为推进数字社会涉及的建设提供了更具体的制度抓手。下一步仍需政府、平台、学校与家庭协同发力,在守住青少年健康成长底线的同时,兼顾其在数字时代的合理使用与发展需求,在动态治理中实现更稳妥的平衡。