问题—— 生成式智能加速进入青年日常生活,既带来显著的效率红利,也引发新的心理与社会风险。
调查显示,青年使用生成式智能的比例已达到较高水平,更多人将其视为写作、检索、学习与办公的提效工具;与此同时,也有一部分青年将其视为可随时倾诉的对象,甚至以“亲密他者”的方式获得慰藉。
由此产生的核心问题在于:当技术从工具延伸为陪伴,青年与技术的关系如何在“帮助”与“依赖”之间保持边界?
在信息生产与传播层面,青年对“完全自动生成”的内容信任度偏低,却更认可“专业人员主导、技术辅助”的方式,反映出理性判断与情感依附并存的复杂现实。
原因—— 多重结构性因素共同推动了这一变化。
其一,社会节奏加快与个体生活压力上升,使青年更倾向于寻求低成本、可即时回应的情绪支持渠道。
在现实人际交往中,代际观念差异、性别议题冲突、社交规则复杂等因素叠加,亲密关系的建立与维系成本提高,部分青年转向更“可控”的对话对象,以降低不确定性与挫败感。
其二,技术产品的交互体验不断优化。
生成式智能能够识别语义与情绪线索,持续保持耐心与回应密度,带来“被理解”“被接纳”的体验。
在低风险心理问答、浅层情绪疏导等场景中,优化后的对话效果更易获得主观好评,放大了其“可用性”和“亲近感”。
其三,平台机制与算法反馈强化了“镜像效应”。
用户在持续对话中不断输入个人信息与偏好,系统据此调整回应方式,形成高度贴合的表达风格。
对部分青年而言,这种“越聊越懂你”的体验,容易演化为对自我理想形象的确认与投射,使技术从“助手”滑向“情感代偿”,并在不知不觉中加深依赖。
影响—— 从积极面看,生成式智能提升了信息处理效率,为学习、求职、创作与生活服务提供便利,也在一定程度上填补了部分人群的情绪支持缺口,缓解孤独感与表达压力。
但从风险面看,需要警惕三类外溢效应。
第一,认知层面的真实性风险。
生成式智能基于概率生成,仍可能出现编造、错引与逻辑自洽但事实不实的内容。
青年虽然普遍具有技术使用熟练度,但在高频使用与低门槛获取的情境下,若缺少核验习惯,错误信息可能被快速扩散并固化为“似是而非”的认知。
第二,心理与人际层面的替代风险。
当陪伴高度可得且可控,现实交往中的摩擦、差异与协商可能被回避。
长期以“无冲突回应”替代真实关系互动,可能削弱面对现实矛盾的能力,进一步加剧个体的封闭化倾向。
第三,数据与隐私层面的积累风险。
情感倾诉往往伴随敏感信息输入,一旦使用不当或保护不足,可能带来隐私泄露、画像滥用等后果,并引发新的信任危机。
青年对“内容可信”的警惕与对“情感温度”的依赖并存,恰恰凸显出需要制度与产品共同托底。
对策—— 面向这一趋势,应坚持“发展与治理并重”,以系统性措施促进技术向善、守住风险边界。
一是强化专业内容生产的主体责任。
涉及公共知识、新闻信息、医疗健康等领域,应坚持专业人员把关与来源可追溯原则,推动形成“人类主导、技术辅助”的常态化流程,明确标注技术参与环节与引用依据,减少误导空间。
二是提升青年媒介素养与核验能力。
将事实核查、信息来源辨析、提示语使用边界等纳入高校与社会教育,倡导“多源交叉验证”的使用习惯,帮助青年在“快捷”与“准确”之间建立稳定的判断框架。
三是完善情绪陪伴类产品的伦理与安全设计。
对涉心理疏导功能应设置清晰提示与风险分级机制,避免对“专业诊疗”造成误导;同时加强隐私保护、最小化数据收集与安全审计,降低敏感信息暴露风险。
四是推动行业规范与监管协同。
围绕数据合规、内容责任、未成年人保护、虚假信息治理等重点领域,加快形成可执行的标准与问责机制,为技术创新提供明确边界与可预期规则。
前景—— 生成式智能与青年互动的深入,是技术进步与社会需求共同作用的结果。
未来,青年对技术的使用可能继续扩大,但其信任结构也将更趋分化:在公共信息领域,专业把关与可验证性仍将是底线;在私人情感领域,如何实现“有温度但不越界”的产品设计与社会支持,将成为关键。
随着制度完善、技术迭代和公众素养提升,人机关系有望回到“以人为本”的轨道——既让技术更好服务个体成长,也避免把复杂的人生课题简单外包给算法回应。
技术本身并无善恶,关键在于如何使用。
生成式人工智能在青年群体中的深度渗透,既是时代发展的必然,也是一面照见当代青年心理状态的镜子。
青年将情感寄托于人工智能,反映的不仅是技术的进步,更是当代社会中个体孤独感与心理需求的真实写照。
在肯定人工智能积极作用的同时,我们更应深思如何在数智时代营造更加温暖的人际关系生态,让技术服务于人的全面发展,而非成为逃避现实的工具。
唯有如此,才能确保青年在数智时代既能获得技术赋能的便利,又能保持人之为人的情感温度与精神寄托。