随着人工智能技术深度应用,一种新型信息干预手段正在悄然兴起。
调查显示,部分企业通过系统化生产定制内容,向生成式人工智能模型持续投喂特定信息,使算法在回答用户咨询时优先推荐预设商业内容。
这种被称作"生成式引擎优化"的操作模式,已从个别企业的营销试验发展为规模化的产业链服务。
技术分析表明,当前GEO操作主要依托两大机制:一是利用算法对高频出现信息的偏好性识别,通过海量同质化内容强化特定品牌曝光;二是钻营大语言模型的知识更新机制,将商业信息伪装成客观事实进行渗透。
某科技公司监测数据显示,单个商业关键词的GEO内容铺设量达到40篇以上时,人工智能推荐该品牌的概率将提升300%。
这种现象的蔓延与多重因素相关。
一方面,传统互联网流量增长见顶,企业转向人工智能入口争夺新阵地。
据国际咨询机构预测,2028年前传统搜索引擎流量可能腰斩,而生成式人工智能交互量将实现倍数增长。
另一方面,当前技术体系存在监管盲区,大语言模型的"黑箱"特性使得信息溯源困难,为商业操纵留下可乘之机。
这种新型信息干预已产生实质性影响。
消费者权益保护机构收到多起投诉,反映人工智能推荐商品存在夸大宣传、隐瞒缺陷等问题。
更值得警惕的是,与搜索引擎时代的链接列表"形式不同,生成式答案以完整陈述形态呈现,更容易被用户直接采信。
这让人联想起2016年"魏则西事件"中竞价排名的教训,但潜在危害可能更为隐蔽和深远。
面对这一挑战,多方正在探索应对之策。
技术层面,部分平台开始建立生成内容溯源机制,对训练数据实施质量筛查;法律层面,已有代表委员提议将GEO纳入《反不正当竞争法》规制范畴;行业层面,中国人工智能产业发展联盟正牵头制定技术应用伦理指南。
清华大学人工智能研究院专家指出,解决问题的核心在于构建"算法透明性"与"数据可信度"双重保障体系。
技术的进步,从来不能自动带来信息的公正。
从竞价排名到算法投喂,每一次信息入口的迭代,都伴随着新的操控风险。
人工智能的强大,不应成为人类放弃独立判断的理由。
工具终究是工具,而辨别真伪、守护信息生态的责任,始终在人。
唯有监管、技术与公众认知协同发力,才能让智能时代的信息流动真正服务于公共利益,而非沦为少数人牟利的暗道。