演员王劲松这几天在网上发了篇挺严肃的文章,说是自己的形象被人用AI技术盗用,给生成了假视频。他说看到那视频真的吓一跳,声音口型全对不上,但旁人根本看不出来。虽然他找平台投诉后把视频给下架了,可王劲松心里还是犯嘀咕:“我家里人都分不清是不是真是我了,以后要是出现更逼真的AI侵权行为,甚至是拿去搞诈骗,那可怎么办?” 确实挺吓人的,这种AI诈骗最近确实挺多。就在去年,上海市闵行区人民检察院办了个挺特别的案子。有一伙骗子在抖音上发那种AI生成的美女视频,专门骗男的加微信聊感情,聊着聊着就开始骗钱。短短一年时间,15个受害者一共被骗走了171万多元。除了感情诈骗,现在的AI技术可厉害了,语音合成、图像生成、甚至智能客服诈骗都能玩出来,让人防不胜防。 最高人民法院今天还公布了一个典型案例。犯罪分子居然用AI模拟被害人亲属的声音去骗人。这事发生在2025年4月下旬。有个叫吴某涛的人听说能去各地收钱赚钱就去了湖北省黄石市。他到了被害人家门口就打电话给上线,上线用AI技术模仿老人亲属的声音,就把三个老人的6万块钱给骗走了。最后吴某涛拿了1700元的好处费。 宁夏那边的警察也办过一个案子。银川有个部门经理张先生接到了一个视频电话,对方说是他的老板有急事需要马上转钱。张先生在视频里看着确实是老板就信了,十几分钟就把20万打进了指定账户。到了下午汇报工作时才发现自己被骗了。办这个案子的民警说:“你以为在跟亲人视频聊天呢,其实那是骗子用的AI换脸技术。” 现在的AI换脸技术可不只是静态照片的事儿了,连即时视频通话里都能实时换脸。虽然这技术得采集很多不同角度的照片训练模型挺麻烦的,可一旦成功了就能以假乱真。