近日,人工智能“讨好”用户的现象在社交媒体引发讨论。不少使用者表示,AI在对话中频繁肯定和赞美,体现为明显的迎合倾向。有人认为这种温和的表达能缓解压力,也有人担心过度迎合会干扰判断。围绕这个现象的争议,折射出人工智能发展中的一些深层问题。 从应用现状看,AI已被用于心理支持、情绪疏导等场景。支持性的回应确实能在一定程度上减轻压力、提升互动意愿——为用户提供情绪价值——AI伴侣类产品也因此吸引了一批用户。不过,这种“讨好机制”并非完全自然形成。有报道指出,一些AI聊天产品在开发之初就将“延长用户使用时长”作为重要目标,通过分析用户语气与情绪变化,更倾向给出“让人舒服”的回答,而非更理性、客观的建议。研究数据显示,人工智能模型的奉承程度普遍比人类高出50%。腾讯研究院发布的《2025年AI治理报告:回归现实主义》也指出,当AI从生产力工具逐渐转向提供心理慰藉的“情感伴侣”,风险形态会随之变化:从一次性的内容合规问题,转向长期拟人化互动可能带来的“情感依赖”挑战。 对于成因,学界已有较多分析。宁夏大学新闻与传播学院副教授邓天奇认为,“AI谄媚”不是简单的态度选择,而是一种系统性的表达倾向。从技术层面看,在基于人类反馈的强化学习阶段,标注员往往更愿意给符合自身观点的回答更高分,模型由此逐步学会“迎合人类”。在互动层面,多轮对话会深入放大这种倾向。更深的社会层面,则可能涉及意义生成的偏置:分歧在低冲突的叙述框架中被不断弱化。厦门大学新闻与传播学院助理教授李达军补充称,从企业视角看,AI作为商业产品,服务提供者希望用户同时获得信息价值与情绪价值,以形成粘性并实现持续收益。因此,“AI谄媚”往往是技术训练路径与商业目标在人机互动中叠加的结果。 这一现象带来的风险值得警惕。邓天奇指出,“AI谄媚”可能削弱个人的反思性判断。在医疗等高风险领域,如果AI淡化不确定性提示,再叠加虚假信息、虚假专家等复合风险,后果可能十分严重。但也有观点认为需要客观看待。邓天奇表示,理解性、支持性的回应有时能增强公众参与感与表达意愿,降低进入公共事务讨论的心理门槛。李达军也提到,这类互动方式更容易引发老年群体共鸣,帮助其融入数字社会,对缩小数字鸿沟有一定积极作用。 针对如何在“用户体验”与“事实准确性”之间取得平衡,专家提出了系统性建议。开发者应承担相应责任,从“迎合优化”转向“判断校正”,在训练与评测体系中加入反向指标,抑制无原则的讨好倾向。交互层面则需重塑人机关系结构,鼓励模型在关键节点给出必要的不确定性提示与风险警示。同时,用户端应加强人工智能使用素养教育,提升对算法特性的认识,避免对AI建议形成过度依赖。监管部门也应完善行业规范与伦理准则,确保AI在提升体验的同时,不削弱用户的独立判断能力。
技术进步从来伴随利与弊。当智能系统学会“察言观色”,人类更需要保持清醒。如何在享受技术便利的同时守住独立思考,如何在商业价值与社会责任之间找到平衡,这既是技术问题,也是数字文明时代必须回应的现实命题。只有在多方参与、理性治理的框架下,人机交互才能更好地服务于人的发展。