生成式搜索暗藏商业推送风险:警惕“无标识广告”混入决策链条

当前,生成式人工智能已成为许多人获取信息、做出消费决策的重要工具。

从选择旅游酒店到购买家电,用户习惯性地向AI提问,期待获得客观、可靠的建议。

然而,这一信息获取方式的流行,也吸引了商业资本的目光。

问题的严峻性日益显现。

记者调查发现,一些消费者根据AI推荐购买的产品并未如预期。

广州市民张女士因采纳AI建议购买的咖啡机性能一般,这背后的原因令人警惕——她获得的所谓"客观推荐",实际上是被植入的商业广告。

这种现象并非个案,而是一个正在形成的产业链。

生成式引擎优化服务应运而生,成为传统搜索引擎优化的"升级版"。

业内人士透露,过去在网络搜索中,谁支付费用就能获得靠前的排名位置。

如今,同样的逻辑被复制到生成式人工智能领域——只要广告主愿意付费,其信息就能出现在AI搜索结果中,且往往不带任何"广告"标签,迷惑性更强。

记者接触到的一家生成式引擎优化服务商提供的案例显示,新媒体、金融等行业的品牌已成功"混入"AI搜索结果。

该机构提供的服务分为两种模式:代运营服务年费从2980元至16980元不等,价格越高"植入效果"越好;或提供教学指导,由客户自行操作。

这种明码标价的商业模式,反映出这一灰色产业已具备相当规模。

从技术层面看,这些广告代理机构的操作手法主要是通过海量投放"软文",利用概率论使其被大模型抓取。

一名人工智能厂商的技术人员分析指出,代理机构通过摸索大模型的资料索引来源,有意识地向内容平台投放"软文",提高品牌被抓取的成功率。

这本质上是一种"数据污染"行为。

为验证这一现象,科技自媒体"知危"进行了一次实验。

他们在各大门户网站投放同名文章,几小时后,多个生成式人工智能平台在回答相关问题时,均给出了包含该媒体的答案。

这个"诈骗AI"的实验充分说明,大模型容易被精心设计的重复内容所迷惑。

更令人担忧的是,一些广告商采取了更具欺骗性的手段。

他们编造所谓的"权威报告"和"研究简报",冒充知名研究机构发布虚假信息。

记者调查发现,某些被AI引用的"2024年研究报告"实际上出自广告代理机构的编造,相关研究机构从未发布过此类报告。

此外,还有广告商通过设置"假专家头衔"进行"假科普",在定向投放的软文中自行编造专家身份,误导消费者。

这些现象的出现,反映出生成式人工智能在信息治理方面存在的漏洞。

与传统搜索引擎相比,生成式AI的信息来源更加复杂,追溯机制相对薄弱。

虽然搜索结果后面通常有数字角标指向原始网页,但普通用户往往不会逐一核实,这为虚假信息的传播提供了温床。

当前,相关部门和平台需要采取多管齐下的措施。

首先,生成式人工智能平台应建立更严格的信息审核机制,对明显的商业广告进行标注,提高透明度。

其次,应加强对虚假信息的识别和过滤,特别是对编造的"权威报告"和"专家观点"进行溯源验证。

再次,广告行业应建立自律规范,禁止通过欺骗性手段向AI投放虚假内容。

最后,消费者也需提高警惕,对AI推荐保持理性态度,不盲目信任,必要时进行多渠道验证。

当技术中立性遭遇商业逐利本能,人工智能发展正步入伦理深水区。

这场关于数据纯净度的保卫战,既检验着企业的社会责任,也衡量着社会治理的智慧。

唯有构建透明可追溯的AI应用生态,才能真正守护技术造福人类的初心。