1981年,法国思想家鲍德里亚写了一本书叫《拟像与拟真》,他在书里说过一个事儿,未来技术会经历三个阶段:第一个阶段是复制东西;第二个阶段是工业化大量生产一样的东西;第三个阶段就是用代码和模型直接造出假象。 现在咱们看到了吧?有个叫Seedance 2.0的AI模型,科技博主测评了6次,每次都用了“恐怖”这个词。因为这个模型能生成跟真的一样的视频,大家都在疯狂传播。有个叫陈震宇的经纪人看不下去了,他在网上发文质问某短视频平台:难道都放任不管吗? 这个平台现在已经紧急暂停了真人素材参考能力,不过思考可不能停下来。这件事其实就是一个“拟像”在替换“真实”。这些视频可不是模仿某部具体作品的,而是从海量数据里提取出符号特征重新组合出来的。结果呢?一个活生生的人就被变成了可任意调用的数据碎片。 现在很多人都开始怀疑自己眼睛看到的是不是真的了。“符号的胜利”可能就是“真实的崩塌”。这次事儿不光是法律问题了,更有可能引发认识论上的危机。 今年1月1日开始实施的新《网络安全法》确立了发展和安全统筹的原则。国家广播电视总局也搞了个专项治理行动,专门针对“AI魔改”视频进行整治。 法律条文光写在纸上是不行的,必须落实到关键节点上。连接技术和用户的网络平台就是这个关键节点。以前那种“通知—删除”的规则在面对AI的时候已经不管用了。 现在的情况是成本高效果还不好。平台必须把责任往前推一点。这不是让平台做到完美审核,而是要承担起合理的注意义务。比如开发识别技术、标识AI生成内容、拦截高风险内容这些。 总之啊,咱们不是要扼杀创新活力,而是要在有序的环境下释放动能。技术的洪流退不回去了,它在创意、教育这些领域潜力很大。健康的生态必须建立在“可控换可用”的共识之上才行。