你觉得呢?是不是在咱们每天过日子的时候,AI技术早就渗透进来了?这就跟一把双刃剑似的,虽然方便好用,但带来的问题也不少。最近有个视频闹得挺大,有人拿AI伪造了个家庭紧急情况,看的人都吓了一跳。其实这事儿也不稀奇,现在那种通过深度伪造弄出来的音视频特别多,看着跟真的一样。大家看着觉得好玩,可这底下藏着的风险大得很,搞不好就会把咱们本来就不多的信任感给糟蹋了。 北京理工大学计算机学院的张华老师说,现在的技术能把人脸、声音、场景都搞得特别逼真,普通网友光凭肉眼根本分不清真假。你看那个热点事件刚出来的时候,《数字时代信息传播生态研究报告》里写了数据,有67%的网友先不管消息对不对,只要情绪够强就信;反倒是只有23%的人会去核实一下是不是真的。这就是为什么现在假消息传得这么快、这么广的原因。 那怎么办呢?光靠技术能行吗?复旦大学媒介素质研究中心给了个建议:要学会“数字内容三重验证法”,也就是看看信源靠不靠谱、多个平台比比看、还有别掉进情绪陷阱里。上海市甚至都在中小学里试开了“AI认知课程”,用模拟的方式让孩子们早点学会防骗。 国家网信办那边也动作挺快,要求各个平台给AI生成的内容加上明显的标记。阿里巴巴、腾讯这些公司也都在搞新的检测工具,一发现可疑的东西就赶紧提示风险。中国科学院信息工程研究所的王志刚研究员说得更直白:光靠管不行,得建立一套从研发到传播的全链条伦理规矩,靠技术纠偏和价值引领这两个轮子一起转才行。 除了官方和企业动手,“清朗·AI治理专项行动”也搞起来了,有40多家平台一起在信息共享上发力。北京市互联网法院更是判了全国第一起“AI声音侵权案”,给那些乱来的人划了个法律红线。这些做法都说明光靠一方单打独斗是不行的,必须得政府、企业、老百姓一块儿来管才行。 毕竟技术的进步从来不会自动让社会变好。现在深度伪造技术这么火,咱们既不能因为怕出事就把创新路堵死,也不能什么都不管放任自流。只有把数字素养教育搞好、把技术伦理定严了、把法律制度建全了,咱们才能守住真相这块基石。等哪天大家都能拿理性的眼光去看AI了,“科技向善”的目标也就离我们不远了。