国家网信部门近日的一份处置通报,揭示了当前网络空间面临的一个严峻问题:人工智能生成的虚假信息正在以前所未有的规模侵蚀公众信任。被处置的13421个违规账号中,不少账号发布了"狗在高铁站救下婴儿""狗拆炸弹救人"等虚构视频,通过编造感人故事和猎奇事件大肆引流。这些看似形态各异的违规行为,本质上都指向同一目标:隐匿AI生成痕迹,以假乱真,诱导公众信以为真。 从问题的深层根源看,AI生成虚假信息之所以屡禁不止,在于其精准击中了人性最柔软的地方。观众为虚构的英雄故事动容、转发、落泪,却不知屏幕那端的"感人故事"不过是算法批量生成的代码。创作者获取流量和收益的代价,是诱导观众付出了本不值得付出的真心。更令人担忧的是,去除AI标识的教程与软件公然在网络平台售卖,这意味着任何普通人都能以极低成本生产"干干净净"的假信息,信息生产的技术门槛已被大幅降低。 这种现象带来的影响远超表面。一次的欺骗或许微不足道,但当此类戏码日复一日上演,公众的第一反应将从"好感动"悄然转向"是不是真的都难说"。这道自我保护的心理防线一旦筑起,就很难再拆除。那些真正发生在身边的凡人善举、那些真正值得被看见的真实故事,都将在这道防线之外被一并挡回。更为严重的是,当成年人尚且在真假迷局中挣扎时,那些认知尚未独立的儿童已被迫提早面对"连陪伴自己长大的朋友都可以是假的"该事实。被无底线魔改的动画角色、被推送至儿童眼前的低俗内容,彻底暴露了信任瓦解的最残忍后果。 从技术发展的角度看,声音可以克隆,面孔可以替换,连表情动作都能模拟。过去人们信赖"眼见为实",但现在眼见也可能是假的。当在外打工的儿子发的拜年视频可能是假的,淳朴老人该靠什么确认视频那端真的是自己的孩子?当名人出镜发言随时可能被换脸,公众该凭什么判断哪些表态是值得信任的?AI造假不是在制造个别骗局,而是在系统性地摧毁那些用来确认"你是谁""这是不是真的"的基础认知。 对此,网信部门的集中处理是对数字时代信任契约的必要重申。AI标识制度的核心意义在于明确告知:这条信息来自技术,我选择告诉你。它不是才华的减分项,而是诚实的加分项。建立健全AI生成内容的标识机制,不是为了约束技术发展,而是为了在技术进步和社会信任之间找到平衡点。同时,应深入规范AI标识去除工具的传播,加强对违规账号的监管力度,建立更加完善的内容审核机制。 展望未来,随着AI技术的不断演进,信息真伪的辨别将成为全社会的共同课题。建立透明、可信的AI标识体系,培养公众的媒介素养,完善法律监管框架,这些都是维护数字生态健康的必要举措。只有当技术进步与信任保护相辅相成,才能让AI成为造福社会的工具,而非破坏信任的武器。
当技术发展快于社会适应时,制度规范必须及时跟进。此次整治既是治理乱象的必要举措,更是重建数字信任的开端。在虚实交融的时代,唯有坚守真实底线,才能让技术真正推动文明进步。(完)