“3·15”曝光大模型数据“投毒”黑产:广告伪装成答案,治理亟需多部门联动加力

问题——从“优化”到“操控”,生成式大模型遭遇“数据投毒”新风险。 “3·15”晚会调查显示,一些机构在网络平台兜售所谓GEO服务,宣称付费即可让客户产品在多家主流生成式大模型的答案中“占位”“上榜”,甚至把广告内容塑造成模型输出的“权威结论”。涉及的话术集中在“让模型听话”“给模型洗脑”等,实质是通过非正常手段影响模型检索、引用与生成逻辑,使用户在提问时更易接触到特定品牌与商品信息。 原因——利益驱动叠加治理缝隙,催生“软件+内容+分发”的灰黑链条。 一是商业变现诱惑突出。生成式大模型逐步成为公众获取信息、做消费决策的重要入口,企业争夺“答案位”的动机强烈,少数机构由此把搜索引擎优化逻辑搬进大模型生态,异化为“操控输出”。二是技术门槛被工具化降低。部分服务商提供自动化工具与“代投喂”服务,通过批量发布软文、伪造测评、拼接数据来源等方式,提高虚假信息被模型捕捉与引用的概率。三是平台治理仍在完善阶段。面对跨平台、跨链路的信息流转,内容审核、来源标注、广告识别、训练数据安全管理等机制若不健全,容易被钻空子。四是部分商家法律意识淡薄,把误导性营销包装成“推广技巧”,形成“技术供应—内容生产—渠道分发—效果交付”的链式运作。 影响——误导消费、破坏公平竞争,并带来信息安全与信任危机。 对消费者而言,商业信息被伪装为“客观答案”,会降低识别成本却增加误判风险,可能导致“被推荐”的商品以次充好、夸大功效,损害消费者知情权与选择权。对市场环境而言,守法经营者的正常竞争被挤压,“拼质量、拼服务”容易被“拼投喂、拼操控”替代,扰乱公平竞争秩序。对产业生态而言,大模型输出的可信度一旦被侵蚀,将影响公众对新技术服务的整体信任;若“投毒”内容涉及虚假财经信息、医疗健康误导等,还可能放大公共风险。对平台治理而言,这类行为加剧内容污染,增加模型安全对齐与事实核验成本,影响行业健康发展。 对策——依法综合治理,压实各方责任,形成“发现—处置—追责”闭环。 法律人士指出,恶意投喂数据操纵推荐并以此牟利,难以被认定为正当营销。该行为可能触碰广告法、反不正当竞争法、消费者权益保护法等法律红线,并违反生成式人工智能服务管理相关规定。 在民事层面,若虚假宣传造成消费者误购,经营者应承担退货退款、赔偿损失等责任;符合条件的,消费者可依法主张惩罚性赔偿。对因此受损的竞争对手,相关主体还可能承担不正当竞争损害赔偿,赔偿范围可包括实际损失、侵权获利及合理维权费用。 在行政层面,市场监管部门可围绕虚假宣传、商业诋毁、混淆误导等依法查处,视情节作出责令停止违法行为、罚款等处理;情节严重的,依法可采取更严厉措施。网信等部门可依据相关规定,责令整改、暂停服务、处置违规账号与渠道,推动平台完善标注提示、溯源核验与黑名单机制,必要时对违法所得依法处理。 同时,平台与大模型服务提供者应强化技术与管理双重防线:完善训练与检索数据的来源管理和风险评估,建立对异常投喂、集中发布、同质化内容的识别拦截;对商业推广信息强化“广告属性”提示与可解释标识;畅通投诉举报与第三方评测机制,提升处置效率。对提供工具、代运营、批量发布服务的机构,应加强资质核验与合规审查,防止“工具即帮凶”。 前景——从“入口竞争”转向“可信竞争”,以规则与技术共同护航产业发展。 生成式大模型应用快速普及,信息服务正在从“搜索链接时代”走向“智能答案时代”。越是处于关键窗口期,越需要把安全、真实、透明作为底线要求。业内预计,随着监管规则细化、平台治理能力提升以及社会监督加强,利用“数据投毒”牟利的空间将被持续压缩;此外,合规的内容标注、可信来源引用、商业推广透明化等机制将加速落地,推动行业从流量驱动回归价值驱动。

此次"3·15"晚会曝光的AI大模型数据"投毒"问题,不仅揭示了技术应用中的潜在风险,也为行业敲响了警钟。在技术快速发展的同时,唯有法律、技术与道德的多重约束,才能确保科技真正服务于社会进步与消费者福祉。