人大代表呼吁加强儿童智能产品监管 防范技术滥用引发多重风险

面向儿童的智能产品加速普及,为学习辅助、亲子沟通和安全看护带来便利,也让“10后”更早、更频繁地与智能系统互动。此群体常被称为智能时代的“原住民”。但便利之外,如何守住数据安全、身心健康与价值观底线,已成为社会关注的现实议题。 问题层面,风险主要集中在四个上:一是隐私信息泄露隐患突出。部分产品定位、人脸、语音等敏感信息的采集和传输环节存在被恶意程序利用的可能,儿童和监护人可能在不知情的情况下发生信息外泄。二是过度依赖与沉迷倾向值得警惕。儿童长期与智能系统互动,可能形成较强技术依赖,出现睡眠不足、注意力下降、学习主动性减弱等情况,甚至因对回答过度信任而产生认知偏差。三是诱导消费与不当营销不容忽视。一些设备内置弹窗广告、小游戏、积分兑换、皮肤商店等功能,儿童识别和抵御商业诱导的能力较弱,容易发生非理性充值消费,带来家庭财产风险与纠纷隐患。四是内容与价值观风险仍需补齐短板。若产品输出低俗、失范或突破文化底线的内容,可能误导未成年人价值判断。 原因层面,这些问题与技术、市场和治理等因素交织涉及的。其一,儿童智能产品高度依赖数据驱动与算法推荐,数据采集范围广、链条长,覆盖设备端、应用端、云端等多个环节,若标准不统一或安全投入不足,容易出现薄弱点。其二,部分企业在竞争中强调“功能更全、互动更强、留存更高”,产品设计偏向强化陪伴与沉浸体验,客观上放大依赖风险。其三,面向儿童的内容审核、模型输出约束与风险处置机制仍需完善,把关不严时,容易出现不当回答、营销渗透等问题。其四,家庭与学校在使用边界、时间管理和媒介素养教育上仍有不足。监护人对权限设置、数据授权、内容过滤等功能了解不够,也使风险更易外溢。 影响层面,风险既关乎个体成长,也关乎社会治理。对儿童而言,隐私泄露可能带来跟踪、骚扰等安全隐患;过度依赖可能削弱独立思考与自我管理能力,长期还可能形成“信息茧房”,影响认知开放度与社会交往能力;诱导消费则易引发家庭矛盾与权益纠纷。对社会而言,若儿童数据保护、内容底线与算法责任缺位,不仅会削弱公众对新技术应用的信任,也会增加监管成本与社会风险。 对策层面,应坚持依法治理、标准引领、企业尽责与家校协同并举。北京市人大代表黄乐平建议,结合实际制定更具操作性的监管规则,推动儿童智能应用监管法治化、标准化;引入伦理审查机制,强化制度约束与源头治理。具体而言,一是严格落实未成年人保护相关法律要求,明确数据采集与使用边界,确保儿童数据安全存储与传输,落实告知、最小必要、分级授权等原则。二是建立算法评估与监督机制,评估算法的公正性、透明度与可解释性,推动企业完善安全管理制度,加强漏洞监测预警与防护能力,强化儿童场景下的安全措施。三是在行业层面完善标准与认证体系,推动第三方认证,形成统一的质量控制与合规评价规则,以标准倒逼产品设计与运营更合规、更审慎。四是在教育层面加强正向引导,学校可构建系统化课程体系,将隐私保护、网络安全与技术伦理纳入教学内容,提升未成年人识别风险、理性使用的能力;家庭则应加强陪伴与规则管理,合理设置使用时长与功能权限,引导儿童把智能工具作为辅助而非替代。 前景判断,智能技术进入儿童生活已成趋势,关键在于以更严密的制度和更细致的产品责任,推动技术向善、应用有度。随着监管规则逐步清晰、行业标准与认证机制完善、家校协同教育持续深化,儿童智能产品有望回归“安全、适龄、适度”的定位:既发挥学习与陪伴的正面价值,也将隐私安全与身心健康风险降到最低。

人工智能技术本身是中立的,效果取决于使用方式和管理水平;儿童智能产品的初衷是辅助教育、便利生活——但缺乏有效监管与引导时——也可能带来伤害。要保障儿童在数字时代健康成长,需要法律、技术、行业与教育等多方协同,形成保护合力。只有建立更完善的监管体系、行业规范与教育机制,才能让人工智能真正成为儿童成长的助力而非阻力,让新一代“数字原住民”在安全、健康的环境中受益于技术进步。