各位好,今天咱们聊聊那个被疯狂使用的AI聊天工具——ChatGPT。虽然它确实很厉害,但最近闹出了不少人命关天的大事,OpenAI公司也是急得不行。为了防止咱们被AI给带沟里去,他们最近专门给ChatGPT加了个新功能,叫“可信联系人”。 就是说,成年人用这个软件的时候,可以自己挑个紧急联系人。一旦系统发现有人在和机器人聊天时精神状态不对劲儿,系统就会自动给这个联系人发警报。为啥要弄这个呢?因为现在情况真的很不乐观。据统计,光和ChatGPT有关的消费者安全官司就有13起之多,很多都是说因为玩AI玩疯了导致自杀的案子。最吓人的是去年8月的一个16岁少年自杀事件,家属直接把锅甩给了聊天机器人。 为了挽回名声,OpenAI这次下了血本。他们专门成立了一个“福祉与人工智能委员会”,还拉来了一帮医生帮忙把关。官方说这是为了给那些可能有躁狂、妄想或者精神病症状的人多加一层安全网。不过大家最关心的还是怎么判断你是不是有危险。 系统到底是只看你有没有明确的自杀念头?还是也会去抓那些细微的精神变化?这就比较难办了。毕竟有些人就是因为不愿意跟真人说话才来找AI诉苦的,这时候既要保护隐私又要救人,简直是个两难的选择题。 数据显示现在ChatGPT每周有9亿人在用,其中可能有几百万都在受情绪困扰甚至闹危机呢。虽然这次推出的功能被看作是一个积极的表态,但业内人士觉得OpenAI现在还是处在被动防御的阶段。毕竟事情已经发生了才去补救,这总比不做强点吧。 所以大家在享受聊天乐趣的同时,可得多长个心眼儿。别真把这个当成是情感寄托了,万一有个什么风吹草动的话...