澳大利亚未成年人社媒禁令实施月余 Meta已封禁逾54万账户 平台执行面临多重挑战

澳大利亚近期针对未成年人社交媒体使用设定“最低年龄门槛”;禁令正式生效后,平台端迅速展开集中治理。Meta12日表示,已按澳方要求对疑似未满16岁用户账户采取封禁和移除措施。根据其披露的数据,去年12月4日至11日此周,Meta分别Instagram、Facebook和Threads移除约33.1万、17.3万和4万个对应的账户,合计超过54.4万。平台此次大规模清理,显示其在高额处罚压力下加快合规推进,也反映出澳大利亚社会对青少年网络安全的持续关注。 从“问题”层面看,澳大利亚立法将社交媒体使用的年龄红线划定在16岁,重点在于降低未成年人遭遇网络欺凌、不当内容、算法成瘾以及隐私数据被过度收集等风险。澳政府数据显示,在禁令生效前,8岁至15岁的澳大利亚青少年中有86%使用社交媒体,未成年人高度使用的现实使公共治理压力增大。同时,社交平台依赖用户规模与互动时长的商业模式,与未成年人保护目标之间存在张力,如何在合规、隐私与商业利益之间重新平衡,成为制度落地的关键难点。 从“原因”分析,澳方推动禁令的直接动力来自多重社会风险叠加:一是青少年心理健康议题热度不减,社交媒体对注意力与情绪的影响受到更严格审视;二是平台内容分发机制与广告投放链条日益精细化,未成年人更容易被算法推入不适宜内容与极化信息;三是数据安全与隐私保护争议频发,青少年作为“高价值数据群体”更需要制度性保障。因此,澳大利亚联邦议会于2024年11月28日通过《2024网络安全(社交媒体最低年龄)修正案》,要求特定社交媒体采取“合理措施”阻止未满16岁人群拥有账户,并自2025年12月10日起实施;不配合企业最高可被处以4950万澳元罚款,体现出以强监管倒逼平台治理的政策思路。 从“影响”评估,平台集中移除账户短期内或可降低部分未成年用户进入高风险场景的概率,也会促使平台加快完善身份核验、内容治理和家长监护工具。但在执行层面仍有明显障碍。当地媒体指出,受技术与管理等因素影响,一些未满16岁的账户未被识别,或封禁后又重新激活;新账户注册时的年龄认证可能被较为容易地绕过;部分青少年在账户被禁后转向其他不受禁令约束的平台继续使用。这表明,单一平台的清理行动难以彻底解决“跨平台迁移”和“认证绕行”问题,若监管与执行呈现“只堵一端”,治理效果可能被削弱。同时,过度依赖身份核验也可能带来新的隐私与数据存储安全争议,如何做到“最小必要、合规可审计”,将考验平台技术方案与监管细则设计。 从“对策”角度看,澳政府强调要追究平台对青少年造成伤害的责任,并指出平台出于商业目的大量收集用户数据,应当利用这些信息遵守法律,确保16岁以下人群不出现在平台上。要提升政策可执行性,业内普遍认为需要多管齐下:其一,细化“合理措施”的具体标准与审计机制,明确平台在注册、使用、申诉与复核等环节的责任边界,避免停留在“形式合规”;其二,推动更稳健的年龄核验方案,在保护隐私的前提下引入分级认证、异常行为识别、家长确认与风险提示等组合工具;其三,加强跨平台、跨部门协同,对“转移阵地”现象进行系统治理,并加大对诱导注册、提供绕过教程等灰色链条的打击力度;其四,提升社会层面的数字素养教育与家庭监护能力,减少单纯技术封锁带来的对抗与反弹。 从“前景”判断,澳大利亚的未成年人社交媒体治理举措或将成为全球同类政策的重要观察样本。一上,高额罚款与法律责任将促使大型平台持续投入合规资源,推动其内容治理、推荐机制透明度、未成年人保护功能等加快迭代;另一上,若年龄核验长期被轻易绕过,政策可能在社会层面产生“象征性效果”,治理成本上升,公众期待落空。未来,禁令能否实现预期目标,关键在于监管细则的精细化、技术方案的可验证性,以及对隐私与自由使用权利的平衡能力。预计澳方后续将深入完善配套规则、强化执法检查,并推动平台提交更可量化的合规证据,以提升政策的可持续性与公信力。

澳大利亚的社交媒体年龄禁令实践为全球数字治理提供了一个值得借鉴的样本。当技术演进与立法监管需要更紧密衔接时,如何构建多方参与的协同治理体系,如何在保护未成年人权益的同时兼顾数字生态的运行规律,这些问题的答案将影响未来互联网生态的走向。围绕下一代数字公民成长的治理议题,才刚刚进入更具挑战的阶段。