小红书发文规范合成内容发布:须主动标注生成来源,未标识将被限制推荐

问题:近期,小红书平台频繁接到用户举报,部分账号利用AI技术仿冒公众人物形象、篡改经典作品或传播虚假视频内容。这些未标注来源的合成信息不仅侵犯他人肖像权、著作权等合法权益,更对社区生态造成严重干扰。据平台监测数据显示,2024年1月对应的投诉量环比增长47%,其中涉及名人形象的仿冒内容占比达63%。 原因:此类乱象的滋生主要源于三方面因素。其一,生成式技术门槛降低,使得普通用户可轻易制作高度逼真的合成内容;其二,部分运营者为博取流量刻意模糊内容来源,甚至通过"去标识教程"规避监管;其三,现有社区规范对新兴技术产物管理存滞后性。中国人民大学新闻学院教授李明指出:"技术中立性不能掩盖使用伦理问题,平台需在创新与责任间找到平衡点。" 影响:未标识的AI内容已产生多重负面影响。从法律层面看,《网络信息内容生态治理规定》明确要求"深度合成信息应进行显著标识",违规行为可能面临行政处罚;从用户角度看,某第三方调研显示,78%的小红书用户认为未标注的合成内容会降低平台可信度;从行业角度看,此类事件可能加剧公众对新兴技术的抵触情绪,阻碍数字内容产业的健康发展。 对策:小红书此次采取"标识+惩戒"双轨治理模式。一上要求创作者对AI生成内容添加统一标识符号(如"技术生成"水印),同时上线AI检测系统辅助人工审核;另一方面建立分级处置机制:首次未标识者限流7天,累犯者封禁发布权限,对制作虚假仿冒信息等恶性行为直接封号。需要指出,平台同步推出"透明创作激励计划",对规范标注的优质AI内容给予流量倾斜。 前景:业内专家认为,此举标志着互联网平台进入"技术治理精细化"阶段。中国社科院法学所研究员周强表示:"2023年国家网信办已出台《生成式人工智能服务管理暂行办法》,小红书的新规是对上位法的具体落实。"未来,随着《网络数据安全管理条例》等法规陆续实施,各平台或将形成"强制标识+版权追溯+算法问责"的完整管理体系。而用户教育同样关键,需培养"技术使用需负责"的共识。

内容的真实性是信息社会的基础货币。在AI技术日益强大的时代,主动标识不应被视为"自我披露"的被动选择,而应成为一种负责任的创作态度。小红书的这次治理倡议提醒我们,技术本身是中立的,关键在于我们如何使用它。平台、创作者和使用者若能在"透明"这个共同价值观上达成共识,就能够在拥抱技术创新的同时,守护信息生态的清朗有序。这对于建立更加成熟、有韧性的数字社区生态具有重要示范意义。