两会聚焦青少年使用生成式人工智能:堵不如疏,关键在规范引导与能力养成

人工智能技术的迅速发展正在深刻改变教育生态。

截至2025年底,我国生成式人工智能用户规模已达6.02亿人,其中未成年用户占比超过六成。

在日常学习中,越来越多学生遇到难题时直接使用拍照搜索功能,遇到疑惑时与AI进行对话交流,生成式AI俨然已成为部分青少年学习中不可或缺的工具。

这一现象反映出AI技术在教育领域应用的广泛性和深入性。

与此同时,国家层面对AI与教育融合的推进力度不断加大。

2025年4月,教育部等九部门印发《关于加快推进教育数字化的意见》,明确要求将人工智能技术融入教育教学全要素全过程。

同年5月,教育部基础教育教学指导委员会发布《中小学人工智能通识教育指南》和《中小学生成式人工智能使用指南》,提出要提升中小学生人工智能素养,推动生成式人工智能与教育教学深度融合。

2025年因此被称为"智慧教育元年",标志着AI赋能教育已成为国家战略方向。

然而,技术进步的同时也伴随新的问题。

全国人大代表、中国社会科学院学部委员陈众议等专家指出,青少年过度依赖AI可能导致视力受损、思维能力受阻、创造力和想象力发展受限等问题。

一些社会观察人士甚至担忧,长期使用AI可能导致青少年陷入"信息茧房",削弱其独立思考能力。

这些担忧触及了一个深层问题:在技术赋能与人才培养之间,如何找到平衡点。

值得注意的是,这些问题的出现并非源于AI本身,而在于使用方式的不当。

AI作为工具而非主体,其作用方向最终取决于使用者的选择。

禁止青少年使用AI既不现实也不可取,因为这样做无异于逆势而行,与国家推进教育数字化的战略方向相悖。

更为重要的是,及时了解和积极尝试新技术,有利于我国在创新竞争中抢占先机,让青少年在技术创新浪潮中成为"弄潮儿"。

解决问题的关键在于科学引导而非简单禁止。

学校应在引入AI教育的同时,向学生介绍AI的局限性和潜在风险,制定明确的使用规范和基本准则。

家长需要增强家校联动意识,在家庭环境中配合学校进行引导,确保AI成为学习助手而非"思考外包"的工具。

相关企业和运营商可借鉴互联网管理经验,在生成式AI应用中推出"未成年人保护模式",为青少年构建必要的安全防护机制。

这些措施的共同目标是让AI的积极作用得到充分发挥,同时将其消极影响降至最低。

当人工智能成为新时代的"基础工具",教育工作者需要以更开放的姿态拥抱变革。

正如蒸汽机时代需要产业工人转型,数字时代同样呼唤教育理念的升级。

在推进教育现代化的征程中,我们既要防范技术异化的风险,更要把握赋能发展的机遇,让年轻一代真正成为技术的主人而非附庸。

这不仅是教育命题,更是关乎国家未来竞争力的战略课题。