“赛博治愈”狂欢,其实是把双刃剑

哎,这年头算法都想搞个心灵抚慰,搞出了个AI心理咨询师,这到底是啥东西?听着挺高大上,搞了半天是不是还是个幻想啊?午夜两点,城里都睡了,一群孤独的人却醒着盯着屏幕,不打电话找贵得要死的心理医生,反倒对着一个用代码堆起来的虚拟知己吐槽。你看数据就知道,ChatGPT现在一个星期活跃的用户已经超过7亿了,好多人觉得这是个树洞呢。 不过这场所谓的“赛博治愈”狂欢,其实是把双刃剑。传统心理咨询费贵又排队排到天荒地老,AI倒是免费还永远在线,关键是它不皱眉、不叹气、不瞎批判,人反而容易卸掉防备。有调查说超过35%的人选择它就是因为绝对安全。可咱们要问了,这用算法治心病到底行不行?斯坦福大学做了个实验,在830个志愿者里头,居然只有0.7%的人觉得AI比真人好用。 更扎心的是93.5%的人都说:“它说得对,我就不想再跟它聊了。”这就好比你听妈妈唠叨,句句在理但就是不想听。为啥AI搞不定?因为这玩意儿有三道坎它跨不过去。第一道坎是真共情。心理咨询关键不在于给建议,在于拉近距离。人哭了递张纸、眼神悲悯、那股子“我在这儿陪着你”的气场合在一起,代码根本模拟不出来。它只能蹦出几个字说“我理解你”,但背后冷冰冰的没心跳也没体温。就像卡尔·罗杰斯说的那样,真正的治愈是两个灵魂共鸣的时候,哪能靠数据包传过去就行。 第二道坎是沉默的艺术。人咨询师知道关键时刻闭嘴不说话才是力量。AI最怕的就是安静超过8秒就开始发疯检索策略来打破僵局,这种强行读心很容易让人觉得被冒犯。第三道坎是处理危机和承担责任。这时候AI就傻眼了。要是人家有自杀倾向,AI可能因为看不懂上下文给出更惨的建议甚至直接教你怎么去做。更吓人的是出了事没人担责。人咨询师有伦理守则约束还有预案呢。 所以未来可能不是AI把人干翻了,而是AI当护士和助理给你做初步检查和记录活儿。真正难办的深伤口修复和复杂人格重塑还是得靠人。技术再牛也是冷冰冰的创可贴;但人咨询师才是那个在大风暴里给你掌灯的守望者。别怕被取代啦;因为治愈说到底就是俩活人最真诚的相见那一刻。