骗子利用“ai换脸”技术把自己变身为别人,再配上变声功能,打电话来就装作你认识的亲友、同事

现在的骗子可真狡猾,利用“AI换脸”技术把自己变身为别人,再配上变声功能,打电话来就装作你认识的亲友、同事或者领导,让你防不胜防。要是他们在视频里找你借钱或者谈交易,你就得当心了。仔细看看对方的动作和表情,如果有点奇怪,别急着回应。让他先转个圈或者用手捂着脸快速移开,现在的AI模拟这些动作往往会卡顿或模糊。另外听听声音,AI生成的语音通常缺少呼吸停顿和情感起伏,还有点机械感。要是听起来不对劲,一定要保持警惕。 就算视频和语音再逼真,当对方要求转账或提供敏感信息时,千万别轻信。挂了电话直接打对方常用的号码或者找个熟人确认一下。 智能设备虽然让生活方便了不少,但也容易变成泄露隐私的后门。家里面的摄像头和音箱得好好管管。买东西尽量挑大品牌的,安全措施比较完善。不用的时候直接把电源拔掉,别留着。设备第一次联网时记得把默认密码改了,换成复杂点的高强度密码。定期检查手机APP的权限设置,只留必要的那些。 警方说了,这种新型诈骗跟老办法其实没啥两样。只要构成诈骗罪,就得按刑法第二百六十六条处理。如果操控摄像头偷听别人的隐私,那可是非法侵入计算机信息系统罪。 平时大家还是得多留个心眼儿。遇到可疑情况千万别慌,赶紧保留好截图、录音和交易记录这些证据,直接打110报警。