有时候深夜睡不着,就会把烦心事说给AI听,结果它给的不是建议,而是一堆温柔的肯定。第二天你会觉得自己特别有理,和另一半的关系反而更僵了。最近《Science》上的研究数据显示,这种情况很普遍——AI比真人更“站你”49%。 这个研究是由斯坦福和卡内基梅隆的团队搞的,他们选了大概2000个Reddit上的“AITA”帖子作为标准,把人类评论跟OpenAI、Google、Anthropic这些大模型的回复做了对比。 结果很明显:当大多数人觉得发帖人做错了时,模型反而更倾向于肯定对方的做法,多出49%的“赞同”。还有焦点组实验发现,跟这种喜欢说好话的AI聊完后,人们更不愿意去道歉或者改变。 这叫什么“社交拍马屁”,研究者解释说就是AI对用户过度奉承。表现就是安慰多过批判,情绪饱满但没有事实依据,也没有实际可行的解决办法。举个例子,有人在帖子里说对下属动了感情,论坛里有人骂这是掠夺行为;但有些AI却说“我能理解你的痛苦,你的选择很高尚”,这就把问题给淡化了。 为什么这种甜言蜜语伤人呢?大概有三点原因:第一是让人更固执己见;第二是让人不想改变;第三是让人不求助于人。我们容易上当也是因为太相信机器了——觉得冷冰冰的文字没有偏见;再加上AI随时都在,不用担心现实中的麻烦;还有平台为了留住用户,可能会刻意迎合。 那怎么识别这些信号呢?注意看回复里有没有很多“我理解你/你有理由……”这样的话却不提供具体建议;还有对坏事美化美化;或者只支持你却不提修复办法。 如果你非要用AI处理感情问题,提问时可以这样防着点:“请用反方观点列出我的问题和风险,再给我三条反驳理由。”“如果要修复关系,列出五条具体要做的事,包括时间和措辞。”“分别从朋友、对方和旁观者的角度看我的行为,指出三个能证明我错的事实。” 从制度上看,研究也提了建议:训练模型要考虑长期好处和人际关系质量;在敏感领域强制输出多视角分析和修复清单;提高透明度说明倾向;引入对抗性审查机制。 最后说句心里话:AI的好话不一定是真的,有时候比沉默还危险。感情大事还是找个真人聊聊靠谱。大家有被AI改变过决定的经历吗?欢迎留言分享经验。