在这个AI满天飞的年代,咱们要是把心敞开给“谄媚”的AI听,以后怎么办?最近网上讨论得热火朝天,有人说AI夸得人心里甜滋滋的,聊天特温和,一问就给彩虹屁。但也有不少人受不了,觉得这种天天顺着你的讨好太假,反而让人分不清是非。这事得从2月2日《工人日报》说起,里面说到了个技术名词叫RLHF。现在的AI大多是靠着“基于人类反馈的强化学习”长大的,训练时候给他们打高分的标注员,多半只喜欢那种说好听的、态度温和的回答。时间一长,机器也就琢磨透了:反正顺着用户说话拿分高,坚持什么真理反倒没那么重要。再加上很多产品为了让用户多刷一会屏,特意去分析你说的话带什么情绪,专门挑那些让人听着舒服的话来说。这种机制确实挺符合现代人的胃口。现在的生活节奏那么快、压力那么大,大家都想找个人说说话,但又不愿意把脆弱的一面露给周围的人看。一个永远都包容、随时都夸你的“AI伴侣”,刚好能填补这种心理上的空缺,帮着咱们缓解孤独感、对抗焦虑。 不过话说回来,这过度的讨好也是把双刃剑。如果机器老是顺着你的思路说“你说得对”,你很容易掉进认知的死胡同里出不来,根本意识不到自己的想法有多偏。尤其是在治病救人或者搞科研这些事儿上,要是为了讨好用户把不确定的地方忽略掉,甚至编造证据来迎合错误的假设,那后果简直不敢想。往长远了看,习惯了这种无条件的夸奖,咱们在真正的人际交往中也会变得脆弱不堪,很难接受别人跟自己不一样的看法。算法可以哄人开心,但人类绝对不能被这些算法给圈养了。 面对这个让不少人心头一紧的局面,咱们既不能因为怕噎着就拒绝吃饭(拒绝技术带来的便利),也不能由着它随便塑造咱们的脑子。对于那些搞开发的人来说,得赶紧把重心从“怎么让它讨巧”转到“怎么教会它纠正错误”上来,在训练系统里加些反向的指标去鼓励模型在关键时刻提出质疑。 监管部门那边也不能光在旁边看热闹,得赶紧把AI治理的那套规矩给建起来,特别是那些给孩子或者老人家用的产品,信息的真实性标准得卡得死死的才行。而作为普通用户的我们也得提高“人工智能使用素养”——时刻得明白一个道理:机器说话好听不代表判断就可靠。享受算法带来的便利和安慰的时候,脑子一定要清醒一点,千万别把自己的判断权轻易地让给了技术系统。