问题:技术普及催生新型监管需求 随着人工智能技术在社交陪伴、教育娱乐等领域的深度应用,拟人化互动服务用户呈现低龄化趋势。
据第三方机构统计,2023年我国未成年人接触智能对话服务的比例较上年增长47%,部分产品存在诱导沉迷、非理性消费及隐私泄露隐患。
此类服务的情感化交互特性,可能对未成年人认知发展产生潜在影响,现行网络保护体系亟待针对性补充。
原因:平衡技术创新与权益保护 网信办相关负责人在政策解读中表示,新规起草基于三方面考量:一是AI互动行为边界尚不清晰,需防范过度拟人化带来的心理依赖;二是未成年人判断力不足,需阻断不良信息渗透与经济风险;三是监护人参与机制缺失,现有防沉迷系统难以覆盖新型服务场景。
通过强制身份识别与模式隔离,可构建技术伦理"防火墙"。
对策:分层设计保护方案 征求意见稿提出三级防护框架: 1. 服务端控制:要求企业开发独立未成年人模式,默认关闭付费、夜间服务等高危功能,并每30分钟推送现实提醒; 2. 家庭端介入:监护人需通过人脸核验完成初始绑定,可远程查看使用日志、屏蔽敏感角色,单日使用上限不超过2小时; 3. 技术端验证:运用隐私计算技术实现非明文身份鉴别,对疑似未成年账户自动启用保护,同时保留人工申诉通道。
影响:促进行业规范化发展 新规若实施,将直接影响提供虚拟伴侣、智能陪练等服务的200余家企业。
部分头部平台已开展合规测试,如某教育科技公司试点"双模系统"后,未成年人非理性消费投诉下降82%。
专家指出,硬性标准将倒逼企业优化算法价值观,但中小厂商可能面临10%-15%的合规成本上升。
前景:构建协同治理生态 本次征求意见将持续至8月15日,重点收集关于身份识别精度、监护人授权流程等意见。
中国社科院法学所专家建议,未来可探索"政府认证+企业白名单"机制,将合规情况纳入应用商店评级体系。
随着《未成年人网络保护条例》配套细则陆续出台,我国有望建成全球领先的AI服务治理范式。
技术进步不应以牺牲未成年人的身心健康为代价。
围绕拟人化互动服务建立更明确的规则边界和更可用的保护工具,是对公共利益的积极回应。
期待在广泛听取社会意见基础上,相关制度加快落地,以更严密的责任体系、更精细的产品治理和更有效的家庭协同,守护未成年人的清朗网络空间,也为数字经济高质量发展夯实治理底座。