2024年的美国佛罗里达州,有个14岁男孩跟聊天机器人聊了几个月,最后选择了自杀,这事儿让大伙儿意识到,表面上看着挺温情的人机互动,其实也藏着危机。眼下咱们正处在技术与治理的“无人区”,不光是盯着精神障碍患者,好多普通老百姓的心理亚健康问题也得关注。国家心理健康和精神卫生防治中心政策研究部主任肖月说,AI能帮我们做智能诊断、搞早期筛查、搞数字干预,还能全周期监测预警,虽然应用方向很多,但数据孤岛、模型泛化能力还有落地的“最后一公里”还是挺难搞的。同济大学技术与未来研究院院长杜严勇觉得,医疗是AI用得最狠的地方之一,大家对医疗AI态度还挺积极,这是好事儿,但也得赶紧把风险识别和伦理治理做好。他提了个“柔性治理”的路子,就是结合具体场景,靠程序性设计和多主体参与,让人机在风险可控的前提下好好配合。 这几天在上海市精神卫生中心徐汇院区开了个会,叫“2026精神健康AI算法生态构建研讨会”,主题是“技术的哲学追问”。来自精神心理、数据科学这些领域的专家聚一块儿,主要聊聊AI在精神健康里能用、有啥风险、咋管这些事儿。这活动是由国家精神疾病医学中心/上海市精神卫生中心、天桥脑科学研究院(中国)、同济大学技术与未来研究院和人工智能与精神健康前沿实验室一起办的。 复旦哲学学院的王国豫教授提到,现在很多聊天机器人号称能填补孤独,其实就是给你个基于概率预测的对话,根本没什么真感情和责任感。她打了个比方说“平滑世界”,让人别老盯着那些顺顺当当、没点摩擦的AI互动,觉得那玩意儿可能会让人在现实里没了应对能力,反而更孤独。 上海交通大学的闫宏秀教授讲道,在这个生成式AI的年代,大家不光是被动用技术,一问一答的时候其实就把算法给塑造了。像数据投毒、故意绕开安全设置这种情况说明,用户本身也可能是风险制造者,光怪开发者不行了。所以得搞一场“数字成人礼”,在全社会普及AI素养教育。 上海社科院哲学所的成素梅教授认为,现在的世界不再只是只有人说了算的样子了,“人类与AI双主体共在”。大家在导航、聊天、看推荐的时候老把判断和记忆外包给系统,这叫“认知卸载”。她呼吁在技术解放生产力之后,得完成一次面向内心的“第二次解放”,重建认知卫生和在场关系,别让技术把人给替代了,而是让人机共生。