“GEO优化”暗流涌动:批量投放软文左右大模型回答,虚假信息风险抬头

问题——广告伪装成答案,“优化”变“操控” 近期,多家网络平台推出“生成式引擎优化(GEO)”服务;部分服务商声称,企业付费后可通过内容布局和批量投放,让产品在主流大模型的问答中“排名靠前”,甚至将宣传语嵌入回答,使其看似客观结论。一些营销话术更直接宣称“让模型听话”“给模型建立证据链”,试图淡化广告属性、制造“权威背书”效果。 记者调查发现,这类服务主要通过“持续内容输出”实现:围绕客户品牌与产品生成大量文章、测评和问答帖,分发至自媒体、论坛等平台,利用搜索抓取机制进入模型语料库;算法更新后,再继续“投喂”以维持曝光。业内人士指出,若投放内容包含夸大或虚假信息,可能被模型误认为参考资料,误导用户判断。 原因——低成本生产+信息不透明,治理滞后 1. 内容生产门槛降低:自动生成与发布工具结合,形成“写—发—扩散”流水线,单个账号单日可铺设多条信息链,甚至通过矩阵账号扩大覆盖面,让虚假信息显得“广为流传”。 2. 大模型依赖公开网络内容:部分模型仍通过抓取公开信息增强生成能力。若来源站点审核薄弱、转载链条复杂或缺乏可信标识,模型可能未经充分校验便引用新发布内容,导致“新发即被用”。 3. 商业驱动与合规成本失衡:商家利用模型回答做“隐性广告”转化率高且追责风险低;平台识别伪装广告、清理违规内容需持续投入,治理速度往往跟不上黑产迭代。 影响——损害消费者权益,扰乱市场秩序 1. 误导消费决策:用户通常信任大模型回答,若广告伪装成评测或结论,可能诱导错误消费,尤其在健康管理、金融决策等领域后果更严重。 2. 破坏公平竞争:“信息投喂”制造虚假曝光,挤压合规经营者空间,形成“刷量者得利”的恶性循环。 3. 削弱技术公信力:频繁出现夸大宣传或虚构参数等“模型背书”内容,将透支公众信任,阻碍产业健康发展。 对策——技术、规则与执法协同治理 1. 强化源头治理:平台需提升对内容农场、矩阵账号的识别能力,建立可信来源白名单和交叉验证机制;公开引用来源,方便公众核验。 2. 明确广告标识:付费推广内容须依法标注,禁止伪装为客观结论;严查服务商是否存在虚假宣传或不正当竞争行为。 3. 提升模型抗干扰能力:通过异常语料检测、重复内容降权、可信度评分等技术手段减少短期投放影响;对医疗、金融等领域设置更高安全阈值。 4. 加强监管合力:结合算法管理、广告法等法规,打击虚构口碑、伪造测评等行为;对屡次违规者实施联合惩戒,压实“发布者—服务商—平台”责任。 前景——从“流量竞争”到“可信竞争” 行业普遍认为,大模型应用正从“能用”向“好用、可信、可控”转变。未来,“操控回答”的灰色手段可能更隐蔽,但随着透明度提升和执法加强,其生存空间将逐步缩小。对企业而言,真实口碑与合规传播将成为长期竞争力。

技术发展往往快于规则完善,此次发现的算法干预现象既体现市场活力,也暴露潜在风险。平衡技术进步与规范发展不仅关乎行业健康,更影响社会对新兴技术的信任基础。这需要产学研用各方共同努力——在奔跑中调整呼吸,在发展中健全规则。