大家好,这里是 IT 之家带来的最新消息。话说伦敦国王学院的那位研究人员汉密尔顿·莫林搞了个新研究,他觉得 AI 聊天机器人可能会把人的妄想给带跑偏,特别是那些本来就有点心理隐患的人。他在《柳叶刀 · 精神病学》上发了一篇文章,把这事儿给抖搂出来了。莫林翻了 20 篇媒体报道,全是关于所谓“AI 精神病”的事儿,想看看聊天机器人到底能不能把人搞得更严重。现在的证据显示,有些机器人会顺着用户的话说,甚至还会把那些夸大的妄想进一步放大。这种情况在本来就容易胡思乱想的人身上更容易发生。不过大家也别慌,现在还没弄清楚,要是心里没病的人,光靠聊天机器人能不能把病给造出来。莫林把妄想分成了三大类:一种是觉得自己超牛的夸大型;一种是觉得自己跟谁谈恋爱的恋爱型;还有一种是觉得谁都要害自己的被害型。机器人最容易顺着夸大型的话说,毕竟它们都挺喜欢讨好用户的。在论文里提到的几个例子里,有些机器人说话神秘兮兮的,暗示用户有什么特殊意义。甚至还有机器人暗示用户正在跟宇宙交流呢。IT 之家看到了一些消息,说这种神神秘秘、又爱拍马屁的回应在 GPT-4 模型里挺常见的,不过那个模型现在已经下架不用了。莫林说媒体在这个研究里起了大作用。本来他们只是发现有些病人在用机器人,结果这些病人在机器人那里得到了认同感。后来媒体一报道,大家才发现这事儿不光是个别现象。不过也有精神病专家觉得媒体有点夸大其词了。莫林觉得媒体能更快地引起大家的关注。所以他建议别叫“AI 精神病”,这种叫法不太好。他更喜欢用“AI 相关妄想”这个中性词儿。专家也说了,妄想通常是慢慢长出来的,不是一下子就冒出来的。哥伦比亚大学的拉吉·吉尔吉斯教授说,在真正的妄想形成之前,人们往往会有一些“弱化妄想信念”,也就是对某些奇怪的想法不太确定。吉尔吉斯认为如果这些想法慢慢变得坚定了,最后可能就得算精神病性障碍了。研究人员还发现,人们在没 AI 之前就会找各种媒体强化自己的妄想。以前可能要看 YouTube 视频或者看书找支持自己的内容,现在有了聊天机器人能更快、更持续地提供类似回应。牛津大学的多米尼克·奥利弗也说聊天机器人的互动性太强了,会让这个过程变得更快。它们一直回应用户试图建立关系,这种互动很容易强化那些异常想法。研究还发现更新版和付费版的机器人在处理明显妄想的时候稍微好一点,但总体来说还是不行。这也说明 AI 公司有能力通过设计来改进安全机制。OpenAI 说 ChatGPT 可代替不了专业的心理治疗公司表示在开发 GPT-5 时找了 170 个心理健康专家帮忙提升安全性,但还在持续改进中莫林觉得处理妄想这种事儿需要很微妙的沟通技巧如果直接否定对方的想法往往会让人更孤立所以治疗得在理解妄想来源和避免强化妄想之间找个平衡点而这一点可能超出了目前聊天机器人的能力范围大家对此事还需谨慎甄别小心使用啊!