生成式引擎优化服务走热 AI推荐能否被"购买"引发法律争议

随着智能问答、智能搜索等工具加速融入日常生活,越来越多消费者在购物、出行、培训等场景中习惯先向智能工具提问,再据此形成决策。

一些用户发现,部分回答看似客观中立,却可能夹带特定品牌、机构信息,甚至呈现“推荐名单”式输出。

智能工具是否会在商业力量作用下出现偏向,成为新的公众关切。

问题在于,一条围绕“被推荐”的新型营销链条正在形成。

记者调查发现,部分商家在二手交易平台等渠道提供所谓“生成式引擎优化”(GEO)服务,宣称并非直接操控智能工具,而是通过撰写、发布包含品牌与产品信息的文章,影响模型可检索或可引用的数据来源,使相关内容更容易进入回答视野。

一些商家以“月卡”“年卡”“永久版”等形式收费,价格多在数百元至千元之间;也有商家以“算力”“体力”等虚拟额度计费,强调可持续发布、持续维护,并以“你不布局就推荐同行”等话术制造焦虑。

原因层面,一是消费信息获取方式变化带来的商业竞逐。

相关研究显示,越来越多消费者把智能问答视作“可咨询的专家”,对其回答具有较高信任度,且会在一定程度上采纳建议。

这种“入口迁移”使品牌方从争夺搜索排名转向争夺“被推荐资格”,营销资源随之流向新的战场。

二是生成式系统的内容来源复杂、引用路径不透明。

部分服务商抓住公众对技术机制不了解的空白,通过“内容铺设”“关键词蒸馏”等概念包装,兜售可量化、可承诺的“曝光结果”。

三是行业规则仍在磨合。

智能工具运营方、内容平台、营销服务商之间的责任边界、审核标准、可追溯机制尚未完全建立,为投机性操作提供了空间。

影响方面,首当其冲的是对消费者决策的干扰。

如果推荐内容背后存在付费推动、内容失真甚至虚假传播,用户基于不完整或被“加工”的信息作出选择,可能导致权益受损。

其次是对市场秩序的扰动。

若“谁更会铺内容、谁更会做包装”取代“谁更重质量、谁更重服务”,将挤压合规经营者空间,形成“劣币驱逐良币”的风险。

再次是对智能工具公信力的侵蚀。

一旦用户普遍感到回答被营销操纵,信任成本上升,将反过来影响新技术在公共服务与产业升级中的健康应用。

值得警惕的是,部分服务可能触及法律红线:通过制造虚假口碑、夸大功效、隐瞒商业关系等方式误导公众,涉嫌违反广告、反不正当竞争、消费者权益保护等相关规定;若出现“信息污染”“刷量刷评”等行为,也可能触碰平台规则与监管底线。

对策上,治理应坚持“技术约束+规则完善+行业自律”多管齐下。

其一,平台与智能工具运营方需强化内容溯源与标注机制,对涉及商业推广的内容建立更清晰的披露规则,完善对异常内容分发、批量发布、模板化营销文本的识别拦截,并提升推荐理由的可解释性,让用户知道信息从何而来、是否存在商业关联。

其二,监管部门可结合新业态特点,明确生成式场景下商业推广的合规边界,对“保证被推荐”“可操控推荐”等夸大承诺开展针对性整治,依法查处虚假宣传、刷量引流等行为,压实平台主体责任。

其三,品牌方与服务商应把竞争重心从“投机取巧”转向“真实信息供给”,以产品质量、服务能力、公开透明的内容建设争取用户信任,避免用短期流量换取长期信誉透支。

其四,提升公众媒介素养同样重要。

消费者在参考智能回答时,应交叉验证关键信息,重点关注资质、价格、售后与评价来源,避免把“看似权威”的表述当作唯一依据。

前景来看,智能问答参与消费决策将是趋势,“被推荐”也将成为品牌传播的新变量。

可以预见,随着技术升级,系统对重度营销文本的识别会更强,单纯堆砌关键词、批量拼接内容的手法将难以长期奏效。

与此同时,治理体系也会加速完善:商业推广的标注透明度、内容可追溯要求、算法与数据治理规则有望进一步细化。

未来的竞争,更可能回到“真实、专业、可验证”的信息供给上,谁能持续提供高质量内容与可信服务,谁才更可能在新入口中获得稳定的用户选择。

当技术中立性遭遇商业利益侵蚀,这场关于智能推荐"纯洁性"的保卫战已然打响。

如何在技术创新与商业伦理间寻求平衡,既考验监管智慧,也关乎人工智能技术可持续发展的社会信任。

消费者期待的不只是更精准的推荐,更是一个透明、公正的数字消费环境。