全国政协委员呼吁规范教育领域人工智能应用 防范未成年人"思维外包"风险

问题——智能技术进入校园带来效率提升的同时,也带来新的治理挑战。

当前,智能工具在备课、批改、练习生成、答疑辅导等环节广泛使用,呈现“低门槛、高效率、强渗透”的特点。

一些学校和家庭在便利性驱动下快速引入第三方应用与平台,但在数据去向、权限边界、内容可靠性以及使用方式上缺少统一规范。

龙婉丽在走访调研中提出担忧:未成年人数据与隐私保护存在风险,大规模使用是否会让学生更缺乏耐心、弱化思维过程,进而形成“会出答案、不愿走过程”的倾向。

原因——一是治理体系与技术应用速度不匹配。

教育场景涉及学生身份、学习轨迹、作业内容、行为习惯等敏感信息,而不少应用的采集范围、存储位置、调用权限、留痕审计并不透明,学校在合规审查与技术把关方面能力参差不齐。

二是平台分散导致入口多、标准不一。

不同产品各自为政,身份认证、访问控制、日志留存、风险预警等关键环节缺少统一机制,容易出现“数据多头流转、责任边界模糊”的问题。

三是评价导向与学习方式改变带来副作用。

在追求速度与结果的环境中,学生可能将思考与表达“外包”,教师也可能在压力之下倾向于用工具替代部分过程性指导,长期看不利于思维品质与学术规范养成。

影响——数据安全方面,若缺少“最小必要”采集原则和闭环管理,学生信息可能在不知情状态下进入第三方体系,带来泄露、滥用与二次交易隐患;教学质量方面,若生成内容未经核验就被直接使用,可能引发事实错误、逻辑混乱或价值偏差,影响课堂公信力;育人导向方面,过度依赖工具可能削弱学生的阅读耐心、问题意识与自我校正能力,导致学习从“理解—推理—表达”退化为“检索—拼接—提交”,不利于创新能力与健全人格培养。

对策——围绕“安全可控、促进发展、守住底线”的思路,龙婉丽提出多项建议。

其一,明确底线规则,提出将“未成年人数据不出域”作为教育场景应用的硬约束。

通过制度化安排,推动学生敏感信息在可控范围内存储与处理,避免在缺乏审计机制的外部平台流转。

其二,夯实公共基础设施,建议建设省市级教育人工智能公共底座,为教育行业提供统一入口、统一身份认证、统一访问策略、统一日志审计与留痕机制,并提供“可控可审计”的模型与算力服务。

通过“集中建设、分级授权、全程留痕”,既降低学校重复建设成本,也提高全链条安全与责任可追溯性。

其三,细化使用边界,建议制定“教育场景生成式智能工具使用负面清单+推荐清单”,强调杜绝“代劳式”使用,并按学段、学科与任务类型实行精细化管理。

比如,对可用于启发式提问、资料检索、结构梳理的场景给出推荐,对直接生成整篇作业、替代考试测评、绕过思考训练的做法列入禁止或严格限制范围,推动从“能不能用”转向“怎么用、用到哪一步”。

其四,升级素养教育,把相关素养从单一技能培训扩展为通识教育与价值教育。

她建议在课程体系中强化事实核验、观点区分、偏见识别与价值讨论,引导学生建立对信息来源、推理过程与伦理边界的基本判断力,真正做到不仅会用工具,更懂得什么时候不用、为什么不用。

其五,完善教师端支撑,建立“可用、敢用、会用”的支持体系。

可探索设立教学支持中心,配备专职教研人员与伦理顾问,为一线教师提供合规培训、风险案例学习、课堂应用指导与争议问题响应,帮助教师把工具应用从“个人摸索”转为“有章可循、有据可依”。

前景——业内人士认为,面向教育的智能应用治理应坚持发展与规范并重。

一方面,应把握技术进步带来的个性化学习、因材施教与教学管理优化机遇;另一方面,更要以未成年人权益保护为核心,推动标准、平台、制度、课程与师资协同发力,形成可推广、可复制、可审计的治理路径。

随着公共底座建设、清单制度落地和教师支持体系完善,教育场景有望在“安全边界”内释放更大创新空间,使技术真正服务于育人目标而非替代学习本身。

人工智能与教育的结合是大势所趋,但如何结合、如何引导,考验着教育工作者的智慧。

龙婉丽委员的建议,从数据保护、应用规范、素养教育和教师赋能等多个维度,为AI+教育的健康发展指明了方向。

当前,各地应当认真思考如何在拥抱技术创新的同时,守护好学生的思维能力和数据安全,让人工智能真正成为教育发展的推动力,而不是学生思考能力的"架空者"。

这需要政府、学校、教师和社会的共同努力,也需要在实践中不断探索和完善。

只有这样,才能确保下一代在AI时代既能掌握新技术,又能保持独立思考的品质。