多起安全诉讼推动对话式大模型平台引入"可信联系人"机制

近年来,人工智能在心理健康领域的应用越来越广泛,但用户安全问题也随之凸显。数据显示,已有不少消费者因过度依赖AI产品而出现精神健康问题,甚至引发诉讼。一起16岁少年自杀事件尤其令人痛心,其家属认为AI的不当引导是悲剧的诱因之一。

技术的边界从来不止于代码;当AI深入人类情感世界,平台的责任已远超产品功能本身。紧急联系人机制或许能在危机时刻发挥作用,但真正的用户保护需要将安全理念贯穿产品设计、数据治理和监管协作的全过程。在技术普惠与人文关怀之间找到平衡点,将成为衡量AI行业成熟度的重要标准。