问题——打着“优化”旗号搞“操控”,灰色链条浮出水面。央视315晚会调查显示,部分网络平台可检索到名为“GEO”的服务。有关服务商称,用户付费后,可多个主流大模型的搜索与问答结果中实现“靠前展示”“榜上有名”。暗访中,一些从业者把“让模型听话”“给模型洗脑”当作卖点,并表示算法更新快,想持续被推荐就得不断发布与客户相关的软文,形成长期“投喂”。原因——流量入口转移叠加低成本生产,催生“内容工厂”。业内人士指出,随着大模型逐步成为新的信息入口和消费决策辅助工具,企业营销正从传统搜索优化转向争夺“模型可见性”。一上,自动化工具可批量生成宣传稿,内容生产成本大幅降低;另一方面,部分平台信息源真实性核验、异常发稿识别与处置上仍有漏洞,给“刷存在感”留下空间。同时,“发稿”上下游分工更细:生成工具、代写团队、账号矩阵分发、站群转载相互配合,继续压低操控成本,推动灰产规模化。影响——误导消费、扰乱市场,侵蚀信息可信度。暗访案例中,业内人士通过相关系统虚构产品信息并批量发布软文后,在部分大模型平台询问产品推荐时,虚构商品进入推荐名单且排序靠前。此类做法一旦扩散,风险随之增加:其一,消费者可能被“看似中立”的问答推荐带偏,决策成本上升、维权更难;其二,正规企业的评价体系被扭曲,形成不公平竞争;其三,大模型作为公共信息基础设施的重要性提升后,内容“投毒”会削弱公众对信息平台的信任,影响数字经济的健康运行。对策——压实平台责任,形成“源头—过程—结果”的治理闭环。受访人士建议,治理应贯通内容生产、传播分发与模型引用全链条:一是抓源头治理。提升对批量生成、批量发稿、账号矩阵等异常行为的识别和拦截能力,完善黑产账号、站点、域名与接口的联动处置,压缩“发稿—转载—收录”的传播通道。二是加强模型侧防护。大模型提供方可强化引用来源的可信度评估与溯源标注,对商业推广内容和疑似软文站群信息降权处理,完善反作弊与对抗样本检测,降低被“投喂”带偏的概率。三是完善行业规范与执法协同。对以虚假宣传、误导推荐牟利的行为依法查处,推动建立可执行的商业推广标识、内容责任追踪与合规审计要求,让营销活动更透明。四是提升公众媒介素养。引导用户对“推荐答案”保持审慎,鼓励交叉验证信息来源,形成社会共治的外部监督。前景——竞争将从“模型可见性”转向“可信内容”。业内普遍认为,大模型加速落地后,围绕推荐与引用的竞争难以避免,但应从“操控排名”转向“提升可信度”。未来,模型将更看重数据质量、来源权威、可验证性与更新时效,平台也会通过更严格的反作弊技术与合规体系抬高灰产成本。对企业而言,与其押注“投喂捷径”,不如把重点放在产品质量、服务能力与合规传播上,才能在新信息生态中获得更稳定的回报。
当技术红利被功利化滥用,关于算法公正的守护已刻不容缓。此次曝光不仅揭示了数字时代的新型不正当竞争手段,也提醒我们:在加速智能化的同时——守住数据真实的底线——才能保障亿万网民的知情权与选择权。如何在创新活力与秩序规范之间找到平衡,构建可信、可持续的数字生态,将成为检验社会治理现代化的重要标尺。