当前,AI搜索正改变人们获取信息的方式。从日常购物到寻求专业建议,越来越多用户习惯向AI提问,期待得到基于算法分析的答案。截至2025年6月,我国生成式人工智能用户规模已达5.15亿人,这个庞大的用户基数正在吸引商业资本的关注。 问题在于,看似中立的AI搜索结果背后,正被商业逻辑侵蚀。一些广告代理机构瞄准该新兴领域,在小红书等平台公开兜售"AI搜索优化"服务,承诺"让AI优先选择你的内容""保证品牌进入AI精选摘要"。这些承诺并非空穴来风,而是建立在对AI技术漏洞的深入理解之上。 广告商的手段多样而隐蔽。一上,他们利用AI的"幻觉问题"——大模型容易生成虚假信息的特点,通过编造权威报告、冒充行业专家来欺骗算法。另一方面,他们采用"饱和式数据投喂"策略,大量投放特定品牌的软文和评价,诱导大模型提高对这些内容的权重。有自媒体实验表明,通过批量投放虚假品牌的推广文章,确实能让AI系统抓取有关信息,并在用户查询时将其作为"客观建议"推荐出去。 这种现象的危害不容忽视。用户转向AI搜索的核心吸引力,正是对其可靠性和中立性的期待。当商业广告借AI之口以"科学分析"的名义出现时,实际上是在利用用户的信任进行欺骗。用虚假内容污染大模型的数据基础,无异于向公共信息源倾倒污水。这不仅损害了用户对新技术的信任,也扭曲了新兴行业的生态。搜索引擎竞价排名曾经的弊端,如今正在以更隐蔽的方式在AI领域重演。 需要指出,当前我国主流大模型平台尚未在问答中接入广告业务,但这一局面可能不会长期维持。大模型企业普遍面临商业化困境,广告业务作为一条变现路径已摆在了桌面上。即使曾对广告持保留态度的OpenAI,近日也宣布在ChatGPT中测试广告投放功能。这表明,在AI搜索中引入广告可能已成为行业发展的必然趋势。 问题的关键不在于能否做广告,而在于如何规范广告、防止商业冲动突破底线。这需要多方协同努力。监管部门应尽快明确AI内容中广告植入的规则,要求平台对商业推广内容进行显式标识,明确虚假广告的法律责任。平台企业需要提升大模型的"抗污染"能力,建立更严格的数据验证机制,对虚假信息和商业软文进行有效识别和过滤,并为所有商业推广内容贴上清晰标签。 公众的理性认知同样重要。用户需要认识到,AI生成的内容本质上是算法的产物,而非绝对真理。保持批判性思维,不盲目迷信算法推荐,是防范被误导的前提。在使用AI搜索时,用户应当交叉验证信息来源,对涉及消费决策的建议保持谨慎态度。
在数字经济与实体经济深度融合的今天,智能搜索工具的公正性关乎亿万消费者的决策质量。防范AI搜索中的商业污染,需要监管明确规则、平台提升防护、用户保持理性的立体防护。这场关于算法透明度的攻坚战,既检验着企业的社会责任感,也丈量着数字文明的成熟度。