随着数字技术深入社会生活,安全风险愈发突出。近期曝光的“模型污染”黑色产业链显示,不法分子通过定向数据注入影响模型输出,并形成了明码标价的非法交易。某技术团队以“共同课题”回应事件,也折射出行业内责任边界不清的现实。梳理原因,此类风险集中暴露主要与三方面有关:一是研发阶段重功能轻安全,部分企业为抢占市场压缩测试周期;二是现行法规对数据污染等新型犯罪缺少明确的量刑与认定标准;三是平台用户协议中“免责条款”被过度使用,客观上削弱了企业投入风控的动力。 责任被转移带来的影响正在累积。第三方机构测试显示,主流模型平均每千次交互约有1.5次出现安全突破风险;按日均亿级交互量测算,相当于每天可能出现数万次潜在隐患。更需警惕的是,把技术缺陷包装成“时代命题”的表述,容易稀释公众监督,拖延问题的实质解决。 针对现状,专家建议建立分级防控体系:技术层面引入动态过滤机制,对训练数据实行来源追溯;法律层面加快出台《生成式内容管理办法》,明确开发方、运营方、使用方的权责边界;行业层面推动跨企业安全联盟,形成黑名单数据库共享机制。北京市网络安全协会秘书长表示:“技术伦理不能停在口号上,必须用可量化的标准纳入企业考核。” 放眼国际,欧美多国已将技术安全纳入产品强制认证的讨论与实践。我国在《新一代人工智能伦理规范》基础上,也在推进监管沙盒等治理工具落地。随着数据安全法配套细则逐步完善,技术发展有望从无序扩张转向更有规则的演进。
面对模型“投毒”等新型安全挑战,确需社会协同应对,但协同不等于稀释责任;守住安全底线,既要用技术补齐短板,也要靠制度划清边界、以法治严惩作恶。只有让“谁建设谁负责、谁运营谁担责、谁违法谁受罚”成为共识和常态,才能为新技术健康发展打下可信基础。