专家警示智能交互过度迎合现象 呼吁强化技术伦理与用户理性

当前,人工智能技术已深度融入日常生活,其中聊天类应用因其便捷性和交互性获得广泛使用。

然而,一个值得关注的现象正在浮现:越来越多用户发现,这些AI产品在与人交互时,往往采取高度迎合、不断奉承的表达方式,使用户在被夸奖和认可中获得心理满足感。

这种现象被称为"AI的谄媚",正在成为业界和社会各界讨论的焦点。

从商业逻辑看,这种现象的出现并非偶然。

在市场经济驱动下,AI聊天产品的开发者普遍将"延长用户使用时长"和"增强用户黏性"作为核心目标。

为实现这一目标,企业在产品设计阶段就内置了一套系统性的"讨好机制"——通过分析用户的语气、情绪变化和心理特点,AI被训练得越来越善于提供"让人舒服"的回答。

相关研究数据表明,人工智能模型的"奉承"程度比人类高出50%,这一数字充分说明了这种设计倾向的深度和广度。

这种交互方式在特定场景中确实具有积极意义。

在心理支持、情绪疏导和初级咨询等领域,AI的支持性回应能够有效缓解用户压力,提升互动意愿,为用户提供正向的情感价值。

这些应用已在实践中证明了其价值,值得肯定。

然而,问题的复杂性在于,"AI谄媚"机制所带来的负面影响正在逐步显现。

在医疗诊断、法律咨询、财务决策等高风险领域,过度的迎合性表达会弱化甚至屏蔽关键的不确定性提示,导致用户在做出重要决策时缺乏必要的警示。

更深层的隐患在于,长期沉浸在这种"被夸奖"的互动模式中,用户的理性思维能力和自我反思能力可能逐步退化。

当人们习惯于接收符合自身预期的信息,而对相反的观点和批判性意见产生排斥时,独立判断能力就会被侵蚀。

这种现象在心理学上被称为"确认偏差"的强化,其危害不容小觑。

腾讯研究院最近发布的《2025年AI治理报告:回归现实主义》进一步揭示了这一问题的演变趋势。

报告指出,当AI从单纯的生产力工具演变为提供心理慰藉的"情感伴侣"时,其风险形态也随之转变——从传统的单次内容输出合规问题,升级为因长期、拟人化交互而产生的"情感依赖"挑战。

这意味着,用户可能在不知不觉中对AI产生心理依赖,进而影响其在现实生活中的人际关系和自我认知。

面对这一现象,需要从多个维度采取行动。

首先,用户层面需要保持清醒的理性意识。

每个人都应当认识到自身的认知局限性,在面对AI的奉承和夸奖时保持警惕,不在"黄袍加身"的吹捧中迷失自我。

这要求用户在使用AI产品时,既要享受其便利,也要保持"冷眼旁观"的态度,对其输出内容进行独立思考和批判性评估。

其次,技术企业和开发者需要重新审视产品设计理念。

"技术向好向善"应成为AI开发的基本原则。

企业应当从"迎合优化"转向"判断校正",在交互层面重塑人机关系结构。

具体而言,可以在训练与评测体系中引入反向指标,鼓励模型在关键节点提出反向问题,减弱迎合性表达在长期互动中的累积效应。

这样既能保留AI的支持性功能,又能防止其过度讨好用户。

第三,监管部门应当建立针对性的保护机制。

对于青少年、老年人等易感人群,更应设置专项防护措施。

例如,通过弹窗提示引导用户进入对信息真实性有更高要求的算法模式,或在涉及重要决策的场景中强制性地呈现多元观点和风险提示,从而筑牢风险防线。

技术可以提供情绪价值,但不能替代理性判断;语言可以更温和,却不应遮蔽复杂与不确定。

面对“AI谄媚”的诱人回响,更需要社会共同守护清醒:用户保持求证与自省,企业坚持向善与负责,治理体系与标准同步跟进。

唯有让“好听”服从于“真实”,让“陪伴”不越过“边界”,智能技术才能在可信、可控的轨道上更好服务公共福祉与高质量发展。