澳大利亚《2024网络安全(社交媒体最低年龄)修正案》自2025年12月10日起实施,明确要求特定社交媒体平台采取“合理措施”,阻止未满16岁用户在平台拥有账户。
禁令落地后,平台治理成效与执行难点同步显现。
Meta近日披露,在去年12月4日至11日的一周内,其分别从Instagram、Facebook和Threads移除约33.1万、17.3万和4万个疑似不符合年龄要求的账户,合计超过54.4万。
该数据在一定程度上反映出平台对新规的响应力度,也折射出禁令生效前未成年人触达社交媒体的广泛现实——澳政府数据显示,禁令实施前,86%的8岁至15岁青少年使用社交媒体。
问题:禁令“可执行性”成为首要关切。
多方报道显示,一些未满16岁用户账户可能未被识别,或在封禁后通过申诉、信息调整等方式重新激活;部分平台的注册年龄认证仍可能被“轻松”规避;还有青少年在主流平台受限后转向其他暂未纳入监管范围或约束较弱的平台。
由此带来的直接问题是:一方面,监管目标强调“阻断未成年人账户”,另一方面,用户迁移和认证绕行使治理效果出现折扣,甚至可能形成“转场效应”,导致风险在不同平台间流动。
原因:技术手段、商业激励与治理边界叠加,是执行难的关键成因。
其一,年龄识别的基础仍依赖用户自填信息,若缺少可信的身份核验机制,平台在不触及隐私合规红线的前提下,难以对所有用户做高强度、全覆盖验证。
其二,社交媒体商业模式通常与用户规模、停留时长、数据沉淀等指标高度相关,未成年人群体在内容消费与互动上具有显著活跃度,客观上容易形成“治理与增长”的张力。
其三,社交媒体生态高度分散,平台类型多样、跨境运营普遍,禁令对“特定平台”的界定与适用范围需要在执法中不断细化,否则易出现监管空白或执法尺度不一的问题。
影响:禁令的落地将对未成年人网络环境与平台经营模式带来多重效应。
对未成年人而言,短期内有望减少接触不良信息、网络欺凌、过度使用等风险,推动家庭与学校对数字素养教育的重视;但若执行粗放、误伤正常用户或引发更隐蔽的“地下化”使用方式,也可能加大心理对抗与行为迁移。
对平台而言,高额罚款上限(最高4950万澳元)显著提高合规成本,平台或将加速完善识别与风控体系,强化账号审核、内容分级与青少年模式,同时面临用户增长放缓和运营调整压力。
对监管而言,如何在未成年人保护、个人信息保护与数字经济发展之间取得平衡,将成为持续考验:过度依赖强身份核验可能引发隐私争议,而过度依赖平台自律又可能削弱政策效力。
对策:治理需要在“技术—规则—协同”三条线同步推进。
首先,完善可审计、可追责的合规标准,将“合理措施”具体化,明确平台在注册、活跃、申诉复核等环节的最低要求与时间节点,减少执行空间的模糊地带。
其次,推动年龄验证从单点“注册门槛”转向全流程“动态识别”,综合异常行为检测、家长监护工具、分级权限与风险提示等方式,提高绕行成本,同时降低对敏感身份数据的依赖,避免以扩大数据收集换取合规。
再次,强化跨部门与跨平台协作,关注未成年人“转移阵地”问题,建立更广泛的平台清单更新机制与执法协同渠道,必要时推动行业共同标准,避免监管套利。
最后,社会层面应同步加大数字素养教育投入,引导家庭建立合理使用规则,把“禁入”与“引导”结合起来,降低简单“一禁了之”带来的反弹。
前景:从趋势看,未成年人社交媒体治理正从倡议式管理走向法制化、责任化。
平台集中清理账号只是起点,能否形成稳定有效的制度安排,取决于三点:其一,年龄验证能否在合规与可用之间找到可持续方案;其二,执法是否保持一致性与透明度,做到既有力度也有尺度;其三,能否把治理目标从“账号数量”延伸到“风险减少”,通过数据评估与第三方监督检验政策实效。
随着技术手段迭代与监管经验积累,澳大利亚此举或将为其他国家和地区提供参考,但也可能引发关于隐私保护、平台责任边界与青少年权益保障的新一轮讨论。
这场牵涉技术伦理与青少年发展权的监管实践,正在成为全球数字治理的观察样本。
当澳大利亚以立法形式划定"16岁红线"时,其背后折射的不仅是数据主权主张,更是对科技公司社会责任的全新定义。
如何在保护未成年人权益与维护数字创新之间寻求平衡,或将决定下一代互联网治理的基本范式。