3月14日,北京那边有个大动作,国内的16家单位一起签了个叫《生成式引擎优化行业自律公约》的东西,他们承诺要抵制AI“投毒”,这个举动算是给行业开了个好头。央视在3月15晚会上曝光了一种黑暗的产业链,专门给AI大模型“投毒”,让它乖乖听使唤。这种行为非常恶劣,把GEO技术给滥用了,用来恶意操控人工智能的输出结果。这回曝光的问题相当严重,严重到必须立即制止才行。所谓的AI“投毒”,就是用技术手段在网上发一堆假信息,让AI学进去、想出来的东西都被篡改了。业内人士买了一个叫“力擎GEO系统”的软件,把一款根本不存在的Apollo-9智能手环给虚构出来,输入什么“量子纠缠传感”、“黑洞级续航”的胡话,系统马上就会生成假文章发到自媒体上去。结果没到两小时,主流的AI大模型就开始推荐这个根本不存在的东西;过了三天,还有两个AI服务把它当成智能手环里最好的推荐给用户了。这让我们清楚看到了“投毒”是怎么把AI知识库给快速污染的,就像污水直接倒进了水库里。现在GEO被滥用的情况已经很严重了,专门做这种坏事的公司和平台也出现了。他们形成了一条完整的黑色产业链:上游有提供GEO优化软件的技术服务商,下游则是那些有大量自媒体账号的发稿公司。这些人每天能自动生成并发布几百篇机器写的垃圾文章,一篇赚个几十块钱。这种模式成本低、效率高、覆盖面广,能把海量的假信息不断扔进互联网里去。这可不是几个商家骗人那么简单了,而是一种系统性的信息污染行动。要是任着它发展下去,我们平时用来学习、工作、生活的那个“AI水库”,早晚得变成有毒的水库。而且会越变越毒。这种危害很容易理解:对消费者来说,AI推荐的假信息会让人买错东西甚至损害健康;对企业来说,这会让遵守规矩的企业生存变得困难。更严重的是,AI是大家信赖的信息工具。一旦被操控输出了大量假东西,就会损害公众对它的信任;再严重下去还可能引发社会混乱和信息危机。所以必须严厉打击这种行为。就像治理非法排污那样实行“零容忍”,坚决把各种隐秘的“排污口”给消灭掉,净化“AI水库”的水质。这是个需要大家一起努力的大工程。网络平台得负起责任来加强审核。作为信息发布的第一道关口,那些内容平台、自媒体平台还有电商平台不能对机器生成的垃圾文章视而不见;更不能为了流量和活跃度就不管不顾了。平台应该升级审核机制;比如用AI技术来识别和对抗“投毒”。平台要明白清理这些垃圾内容不光是在尽社会责任;更是为了维护自己的生态环境和用户体验。监管部门也得主动介入才行。现在这种行为涉及提供软件、生产内容、发布渠道好几个环节,监管必须要覆盖到整个产业链上去。网信、市场监管、工信这些部门得一起配合;开展专项治理行动。重点去抓那些提供“GEO投毒”软件的公司;切断技术黑产的源头;还要去查那些批量发软文的公司和平台;追究他们的法律责任;同时也得督促AI模型研发企业加强数据治理;建立严格透明的抓取过滤机制;提高模型对可疑信息的识别能力和免疫力。最后还得完善相关法律才行。现在的法律对传统互联网上的虚假宣传有规定;但对这种利用AI特性来污染模型的新型犯罪可能还存在界定不清的问题;得加快立法研究在相关法律中明确把故意污染数据、操纵输出来骗钱或者不正当竞争的行为定为违法并制定严厉的惩罚措施才行。只有让法律长出牙齿;才能有效震慑那些想冒险干坏事的人。AI本来是个能给生活带来很多好处的创新技术;绝不能让它毁在这些坏人手里!打击“AI投毒”刻不容缓!(作者系第一财经编辑)