问题——“问AI”正在替代“搜网页”,但答案未必中立可靠。
出行订酒店、挑选家电、咨询医疗美容等场景中,越来越多用户把生成式搜索的回答当作“综合结论”。
然而,多名受访者反映,依据相关“推荐”购买产品或选择服务后出现“踩雷”情况:价格不低、体验一般,甚至与自身需求并不匹配。
看似由模型“汇总对比”得出的建议,背后可能混入了营销信息,且不易被普通用户识别。
原因——广告投放机制在新入口“变形迁移”,信息源治理存在空档。
业内人士指出,传统搜索时代的商业竞价与优化手段已相对成熟,而生成式搜索对信息源的引用与整合,为营销“换了赛道”。
一些机构打着“生成式引擎优化”旗号开展业务,宣称可通过代运营或培训方式提升品牌在生成式搜索回答中的出现概率,并以“算力更强、效果更好”等说法分级收费。
其核心做法并非直接“买位置”,而是围绕大模型常抓取的平台和内容形态,进行海量、定向、重复的软文铺设,借助概率叠加让相关内容更容易进入模型的检索与索引范围。
技术人员分析,生成式回答往往会附带引用来源,一些机构便通过摸索来源渠道,对特定平台进行“投喂式”投放,从而提高被引用的可能性。
更值得警惕的是,部分操作已突破营销边界,演变为对信息生态的污染。
一些自媒体测试表明,在门户网站投放同类文章后,短时间内多家平台的回答出现高度一致的“引用”,说明同质内容可迅速影响生成式搜索的输出。
与此同时,个别机构还通过编造“权威报告”“研究简报”制造可信背书,或以“可自定义专家头衔”等方式炮制“假科普”,利用专业外衣提升内容权重。
这类行为不仅扭曲信息供给,更可能对消费者权益与公共安全造成潜在风险。
影响——从“误导消费”扩展到“公共风险”,并削弱对技术的信任基础。
对普通消费者而言,最直观的后果是决策被带偏:产品选择失准、服务选择不当、时间与金钱成本上升。
当场景延伸至医疗、美容、金融等高敏感领域时,风险随之放大——“推荐”若掺杂虚假资质、伪造背书,可能诱导用户作出不安全、不合规的选择。
此外,生成式搜索的表达方式往往更像“结论性回答”,具备更强的说服力,一旦被营销信息利用,容易形成“软性强推”。
长期看,若用户频繁遭遇“看似客观却暗含植入”的答案,将损害公众对新型信息服务的信任,影响行业健康发展。
对策——完善标识与溯源,强化平台责任,形成多方共治格局。
受访人士建议,首先应把“可识别”作为底线要求:对商业合作、推广内容、可能构成利益关联的信息输出,建立清晰一致的展示规则,推动显著标识、可追溯来源与解释机制,让用户知道“依据何在、是否付费、由谁提供”。
其次,平台需提升内容风控与反作弊能力,对异常重复投放、同质化堆叠、伪造机构与虚假资质等行为建立识别模型与黑名单机制,减少“数据污染”进入索引链路的机会;对医疗健康等重点领域,强化资质核验与来源白名单,提升引用门槛。
再次,监管与行业组织可推动形成针对生成式搜索的广告边界规则与治理指引,明确“软文投喂”“伪造报告”“假专家背书”等行为的性质与责任链条,压实广告主、代理商、内容平台、技术平台的主体责任。
与此同时,加强公众媒介素养教育也不可或缺,引导用户对“结论式推荐”保持基本审慎,学会查看引用来源、交叉验证信息。
前景——技术走向普及,治理必须同步升级。
生成式搜索正在成为新的信息入口,其价值在于整合信息、降低检索成本,但其可信度建立在透明机制与高质量信息供给之上。
未来一段时间,围绕“如何影响模型回答”的灰色生意可能仍会出现变体,治理的关键在于抢在生态被劣质内容挤占之前,形成可持续的规则体系:既支持创新应用,也守住真实性、可验证性与公平竞争的底线。
业内人士认为,当平台在引用机制、广告标识、数据源管理上逐步清晰,市场竞争将更多回归产品与服务本身,生成式搜索也才能真正成为公众可靠的“信息助手”。
生成式人工智能技术本应成为提升信息获取效率、辅助科学决策的有力工具,却因监管缺位和利益驱使,沦为部分不法者牟利的温床。
技术进步不应以牺牲信息真实性为代价,商业利益不能凌驾于公共利益之上。
唯有建立完善的治理体系,明确各方责任边界,才能让智能技术真正服务于人,而非异化为误导公众的工具。
这既是对新技术应用的规范要求,更是对数字时代信息环境的守护责任。