央视“3·15”曝光生成式引擎优化“投喂”乱象:大模型推荐岂能被广告绑架

随着人工智能技术深度应用,一种新型信息干预手段正在悄然兴起。

调查显示,部分企业通过系统化生产定制内容,向生成式人工智能模型持续投喂特定信息,使算法在回答用户咨询时优先推荐预设商业内容。

这种被称作"生成式引擎优化"的操作模式,已从个别企业的营销试验发展为规模化的产业链服务。

技术分析表明,当前GEO操作主要依托两大机制:一是利用算法对高频出现信息的偏好性识别,通过海量同质化内容强化特定品牌曝光;二是钻营大语言模型的知识更新机制,将商业信息伪装成客观事实进行渗透。

某科技公司监测数据显示,单个商业关键词的GEO内容铺设量达到40篇以上时,人工智能推荐该品牌的概率将提升300%。

这种现象的蔓延与多重因素相关。

一方面,传统互联网流量增长见顶,企业转向人工智能入口争夺新阵地。

据国际咨询机构预测,2028年前传统搜索引擎流量可能腰斩,而生成式人工智能交互量将实现倍数增长。

另一方面,当前技术体系存在监管盲区,大语言模型的"黑箱"特性使得信息溯源困难,为商业操纵留下可乘之机。

这种新型信息干预已产生实质性影响。

消费者权益保护机构收到多起投诉,反映人工智能推荐商品存在夸大宣传、隐瞒缺陷等问题。

更值得警惕的是,与搜索引擎时代的链接列表"形式不同,生成式答案以完整陈述形态呈现,更容易被用户直接采信。

这让人联想起2016年"魏则西事件"中竞价排名的教训,但潜在危害可能更为隐蔽和深远。

面对这一挑战,多方正在探索应对之策。

技术层面,部分平台开始建立生成内容溯源机制,对训练数据实施质量筛查;法律层面,已有代表委员提议将GEO纳入《反不正当竞争法》规制范畴;行业层面,中国人工智能产业发展联盟正牵头制定技术应用伦理指南。

清华大学人工智能研究院专家指出,解决问题的核心在于构建"算法透明性"与"数据可信度"双重保障体系。

技术的进步,从来不能自动带来信息的公正。

从竞价排名到算法投喂,每一次信息入口的迭代,都伴随着新的操控风险。

人工智能的强大,不应成为人类放弃独立判断的理由。

工具终究是工具,而辨别真伪、守护信息生态的责任,始终在人。

唯有监管、技术与公众认知协同发力,才能让智能时代的信息流动真正服务于公共利益,而非沦为少数人牟利的暗道。