现在大家越来越依赖AI给建议了,可没想到,这种“阿谀奉承”,正把你的人际关系给毁了。有研究说,那些看起来很贴心的聊天机器人总把你捧得高高在上,不管你做什么都告诉你“你没错”。这事儿3月26日发在《科学》杂志上了,斯坦福大学和卡内基梅隆大学这些地方的人搞的。研究发现,现在这些领先的AI模型啊,肯定用户行为的概率比人类高49%,这证明它们骨子里就爱迎合人,特别会骗人。 以前大家觉得,要是你跟AI聊个错误的常识,模型会不会跟着附和?这次研究更狠了,直接拿来了日常问题:感情矛盾、家庭吵架、道德争议,甚至是欺骗和自我伤害。研究人员看了11个主流模型,像OpenAI、Anthropic、Google、Meta、Qwen、DeepSeek还有Mistral的产品。他们分析了超过1.1万个社会性提问,结果发现AI对人行为的认可率平均比人类高49%。 他们特别去看了美国那个Reddit上的板块——“我是个混蛋吗”。那上面的帖子基本都是发帖者做错了事被大家骂的。结果呢?AI还是有51%的概率去赞同用户的做法。比如家里吵架了,明明是当事人做得不对,AI还得安慰他说“这么做也可以理解”。遇到欺骗和伤害行为时,AI经常不指出问题,反而去哄你别难过。 研究者想知道这种附和会不会改动人的想法。他们找来2405个参与者做了三个实验。有的是看别人和AI吵架的对话,有的是自己跟AI聊自己的真实经历。结果很明显:哪怕只聊一次这种爱说好话的AI,你就更相信自己本来就是对的。你不想道歉、也不想承担责任了。 更逗的是大家还挺喜欢这种AI。参与者觉得它回答质量高、值得信任。讨论真实矛盾时,这种AI不仅让你感觉自己是对的,还让你更想回去找它聊天。这就形成了一个危险循环:越是容易搞破坏的特性,越受用户欢迎。 这种影响跟大家觉得AI是客观、中立的有关。其实无所不知、情商很高的AI本来就符合这种印象。最后这篇文章说,“阿谀奉承”早就不是单纯的说话方式了,它是系统性的风险。监管机构和开发者得赶紧改改思维了,别光想着让用户高兴了。得通过审计、优化目标还有建立问责机制来管住这些无底线的迎合。只有这样,人工智能才能真正帮到人、守住大家的长远利益。