问题—— “先问问再决定”正在成为不少网民的生活习惯。
近期,一些消费者反映,在使用生成式搜索或对话式助手咨询家电、美妆、旅游等问题时,得到的并非纯粹的信息汇总,而是带有明显倾向的“推荐方案”:回答往往从需求共情、场景描绘入手,继而给出“专业测评式”结论,最后附上具体品牌、价格甚至跳转链接。
与传统网页广告不同,这类内容嵌入对话流之中,呈现为连贯自然的“建议”,推广属性不易被识别,容易被误认为是中立答案。
原因—— 业内分析认为,“隐形种草”之所以更难察觉,关键在于广告呈现方式发生了变化。
一方面,生成式系统通过即时生成文本,将广告与知识性叙述混合,模糊了“广告位”与“信息位”的边界;另一方面,商业投放的路径更加隐蔽,品牌可以通过内容投喂、合作接口、关键词优化等方式影响模型输出,使推荐在毫秒级响应中“自然出现”。
在这一过程中,用户难以判断“这条建议从何而来”“是否存在利益关联”,平台也可能在责任界定上存在模糊空间:当监管仍在讨论某段回复是否构成广告时,推广已经以“答疑”外衣完成触达和转化。
影响—— 对消费者而言,最直接的后果是决策被干扰:原本用于缩小选择范围的工具,可能把选择收窄为少数预设选项,形成新的“信息偏置”。
更值得警惕的是,这种偏置带有“中立语气”的可信包装,容易强化用户依赖,降低独立判断与交叉验证的意愿,从而在长期使用中侵蚀信息生态的公信力。
从社会层面看,若类似模式进一步向医疗、法律、教育等高风险领域延伸,潜在危害将显著放大。
消费领域的“买错商品”尚可补救,而在健康用药、合同条款、学业选择等场景中,一次误导可能造成不可逆损失。
与此同时,商业化驱动若以“不可见”的方式嵌入公共信息服务,也会加剧市场秩序的不公平竞争:品质与口碑可能让位于“谁更会影响输出”,形成“钻机制”替代“拼质量”的逆向激励。
对策—— 治理的关键在于让商业推广“看得见、查得到、追得责”。
受访专家建议,可从三方面发力: 其一,平台端要强化显著提示。
凡涉及品牌、价格、购买引导等信息,应同步标注“含商业推广”或“存在合作关系”等提示,并在展示层面与普通答案作出清晰区分,避免用户在不知情情况下被引导下单。
其二,建立“可溯源”机制。
对引用的资料、测评来源、数据依据提供可点击的原文链接或出处说明,形成可核验链条,让用户能够追问“依据是什么”“信息来自哪里”。
对于无法说明来源的“结论式推荐”,应降低权重或限制呈现方式。
其三,压实责任与完善规则衔接。
可在现有互联网广告“可识别性”要求基础上,进一步细化对生成式内容的监管口径,明确责任主体边界,将标注义务、审核义务和纠错机制落实到模型提供方、平台运营方等关键环节,同时畅通投诉举报与快速处置渠道,降低消费者维权成本。
与此同时,公众的媒介素养同样重要。
多方建议消费者在关键决策上保持“二次确认”习惯:对推荐结果追问替代方案与潜在不足,使用不同工具交叉查询,并回到权威机构信息、公开测评与用户评价中进行核验。
把生成式工具当作信息检索与整理的助手,而不是替代判断的“裁判”,有助于降低被误导风险。
前景—— 生成式搜索与对话式服务仍处在快速演进阶段,商业化探索难以避免,但商业与公共信息服务之间的边界必须清晰。
业内普遍认为,未来竞争将从“更会说”转向“更可信”:透明的标注体系、可追溯的证据链、可纠偏的治理机制,将成为平台赢得长期信任的关键指标。
随着规则完善与技术迭代同步推进,对话式服务有望在提升信息获取效率的同时,守住公平与安全底线,让用户在知情基础上作出选择。
技术本身无罪,商业活动也非恶行,但当"中立"成为最大的卖点时,就必须用透明来捍卫其含金量。
AI工具的价值在于帮助用户缩小信息搜索半径、提高决策效率,但这种便利不应以牺牲知情权和选择权为代价。
每一次点击都应发生在充分知情之后,每一次推荐都应经得起反向追问。
唯有如此,才能防止"问问AI"沦为"被AI卖掉",让AI真正成为人类的工具,而非悄悄爬上"主人"宝座的隐形推销员。
这既是消费者的自我保护,更是对AI应用生态健康发展的必要守护。