问题——生成式AI“下沉”到校园与家庭,风险认知跟不上。业内数据显示,2026年我国AI用户规模已达6亿,其中包括不少中小学生。相比游戏、短视频等应用,目前一些生成式AI产品尚未建立完善的未成年人保护机制,隐私防护、内容分级、时长管理、付费限制和风险提示等环节仍有缺口,使未成年人在低门槛、高黏性的使用环境中接触新技术时,面临更复杂的安全与伦理挑战。,家庭这道第一防线在规则制定和日常引导上也暴露出明显短板。 原因——技术和教育应用推进太快,家庭与制度准备不足。孙宏艳指出,生成式AI在2025年春节后迅速走热,使用门槛降低、传播加速,很快进入未成年人生活。与此同时,一些地区计划在中小学开设AI通识课程,教育场景也在加速引入新工具。在“先用起来”的过程中,家长往往不了解产品机制、数据流向、内容可靠性及其对心理的影响;学校在课堂规范、作业边界、评价方式和学术诚信教育上也需要同步更新。再加上部分产品通过拟人化对话与“情感陪伴”增强互动,容易形成沉浸式依赖,管理难度随之上升。 影响——学习助力与资源普惠并存,但伦理与发展性风险更隐蔽。调研显示,受访学生中61.7%使用过生成式AI,整体评价偏积极。专家认为,它在答疑、拓展视野、提升信息获取效率等确有价值,也可能对教育资源相对不足地区形成补充。但调研也提示多项风险信号:46.4%的学生表示“心里有烦恼只想去问AI”,21.5%的学生表示“想和AI聊天,不想和真人聊天”,19.7%的学生认为用AI代写作业“不算作弊”。此外,一些学生出现依赖倾向与思考惰性,个别学生对生成内容过度信任。专家分析,这类风险不同于传统互联网应用的单向刺激,更突出“生成能力+拟人交互”的叠加效应:可能引发现实社交退缩与情感替代,削弱沟通能力和同伴关系;也可能模糊学业诚信边界,冲击课堂评价与学习习惯;算法式反馈还可能影响未成年人的自我认知与价值判断,带来更长期的心理影响。国际研究也多次提醒,技术快速发展可能加剧人际疏离,未成年人尤其需要制度性护栏。 对策——家庭先立规矩,学校做主阵地,企业担责任,监管兜底线。孙宏艳建议,第一,家长尽快建立“能落地的家庭规则”,明确使用时段与时长、可用功能范围、个人信息与账号安全要求、付费与打赏限制,以及作业和考试中的使用边界,并通过共同使用、讨论与核验,提升孩子的辨别能力。调研显示,目前仅约三成家庭为孩子制定了有关规则,规则缺口需要尽快补上。第二,学校应把生成式AI纳入数字素养与学术诚信教育,列出清晰的“可用/不可用”场景清单,调整作业与评价方式,避免学生把工具当成标准答案,同时加强对心理健康与人际交往的引导。第三,企业应加快推出并优化未成年人模式,强化实名与年龄识别、默认隐私保护、对话与内容安全策略、风险提示与家长监护工具,并建立可追溯的合规治理机制。第四,主管部门可更完善标准与监管措施,推动数据安全、内容治理、未成年人保护与教育应用规范协同落地,形成可操作、可检查、可问责的闭环。 前景——在鼓励创新与守住底线之间,形成可持续治理。专家认为,生成式AI进入教育与家庭生活已是趋势,关键在于用制度与教育划清边界:让工具服务学习与成长,而不是替代思考与真实交往。随着未成年人保护模式完善、学校教学规则更新、家庭数字素养提升以及监管体系逐步健全,生成式AI有望在可控范围内释放教育赋能作用,并推动形成更成熟的数字时代育人体系。
新技术进入课堂与家庭,带来效率与机会,也意味着规则与边界需要重新明确;面对生成式智能对未成年人成长方式的深刻影响,问题不应被简化为“用或不用”,更需要在制度、教育与产品设计上形成合力,让孩子在可控、可导、可评估的环境中接触技术、理解技术、善用技术,把工具优势真正转化为成长助力。