当前,生成式人工智能已成为许多人获取信息、做出消费决策的重要工具。
从选择旅游酒店到购买家电,用户习惯性地向AI提问,期待获得客观、可靠的建议。
然而,这一信息获取方式的流行,也吸引了商业资本的目光。
问题的严峻性日益显现。
记者调查发现,一些消费者根据AI推荐购买的产品并未如预期。
广州市民张女士因采纳AI建议购买的咖啡机性能一般,这背后的原因令人警惕——她获得的所谓"客观推荐",实际上是被植入的商业广告。
这种现象并非个案,而是一个正在形成的产业链。
生成式引擎优化服务应运而生,成为传统搜索引擎优化的"升级版"。
业内人士透露,过去在网络搜索中,谁支付费用就能获得靠前的排名位置。
如今,同样的逻辑被复制到生成式人工智能领域——只要广告主愿意付费,其信息就能出现在AI搜索结果中,且往往不带任何"广告"标签,迷惑性更强。
记者接触到的一家生成式引擎优化服务商提供的案例显示,新媒体、金融等行业的品牌已成功"混入"AI搜索结果。
该机构提供的服务分为两种模式:代运营服务年费从2980元至16980元不等,价格越高"植入效果"越好;或提供教学指导,由客户自行操作。
这种明码标价的商业模式,反映出这一灰色产业已具备相当规模。
从技术层面看,这些广告代理机构的操作手法主要是通过海量投放"软文",利用概率论使其被大模型抓取。
一名人工智能厂商的技术人员分析指出,代理机构通过摸索大模型的资料索引来源,有意识地向内容平台投放"软文",提高品牌被抓取的成功率。
这本质上是一种"数据污染"行为。
为验证这一现象,科技自媒体"知危"进行了一次实验。
他们在各大门户网站投放同名文章,几小时后,多个生成式人工智能平台在回答相关问题时,均给出了包含该媒体的答案。
这个"诈骗AI"的实验充分说明,大模型容易被精心设计的重复内容所迷惑。
更令人担忧的是,一些广告商采取了更具欺骗性的手段。
他们编造所谓的"权威报告"和"研究简报",冒充知名研究机构发布虚假信息。
记者调查发现,某些被AI引用的"2024年研究报告"实际上出自广告代理机构的编造,相关研究机构从未发布过此类报告。
此外,还有广告商通过设置"假专家头衔"进行"假科普",在定向投放的软文中自行编造专家身份,误导消费者。
这些现象的出现,反映出生成式人工智能在信息治理方面存在的漏洞。
与传统搜索引擎相比,生成式AI的信息来源更加复杂,追溯机制相对薄弱。
虽然搜索结果后面通常有数字角标指向原始网页,但普通用户往往不会逐一核实,这为虚假信息的传播提供了温床。
当前,相关部门和平台需要采取多管齐下的措施。
首先,生成式人工智能平台应建立更严格的信息审核机制,对明显的商业广告进行标注,提高透明度。
其次,应加强对虚假信息的识别和过滤,特别是对编造的"权威报告"和"专家观点"进行溯源验证。
再次,广告行业应建立自律规范,禁止通过欺骗性手段向AI投放虚假内容。
最后,消费者也需提高警惕,对AI推荐保持理性态度,不盲目信任,必要时进行多渠道验证。
当技术中立性遭遇商业逐利本能,人工智能发展正步入伦理深水区。
这场关于数据纯净度的保卫战,既检验着企业的社会责任,也衡量着社会治理的智慧。
唯有构建透明可追溯的AI应用生态,才能真正守护技术造福人类的初心。