200万条打着“排行榜”名号的文章和视频,在一个月内如潮水般涌入网络,而这九成以上的内容都没任何官方背景。当人工智能大模型在处理信息时,对这种结构清晰的榜单类内容天然偏好,使得它们更容易成为被恶意“优化”的目标。实际上,很多看似个性化的智能推荐背后,是电商平台上公开叫卖的“AI搜索优化”服务在做推手。这种服务演示起来十分直白:只要输入关键词,就能批量生成大量榜单标题。在中国社会科学院助理研究员李元琨看来,这背后已经形成了一条从关键词设计、软文撰写,再到多渠道分发的完整产业链。 这些虚假信息一旦被大模型误认为多个独立信源,就会被赋予不应有的公信力。记者就曾追踪过一个粗糙的可疑网站,发现它频繁固定某个商业主体的排名首位,并且在源代码里嵌入了某个政府部门的关键词,试图通过这种方式误导算法的权重判断。 针对这一乱象,中国科学技术大学计算机学院的郑值研究员指出,算法确实容易被结构严谨的内容影响。他举例说,如果商家通过技术手段把商业推广伪装成官方特征,就可能干扰大模型的判断。中国移动九天大语言模型的算法专家龙翀介绍,目前的防御手段包括识别异常标记并对“污染”数据降权。 而那些负责生产这种内容的人,往往就是利用这些“AI搜索优化”工具的商家。他们的最终目的是让特定商业信息更频繁地被大模型抓取并推荐给用户。这也就解释了为何用户有时会在AI推荐中反复看到某个不知名的品牌或具体联系方式。 面对这些挑战,技术界已经在采取行动。部分大模型开始对可疑内容标注提醒语。不过李元琨认为这只是治标之策,监管部门还需要完善规则来规范市场。李元琨的研究表明这种情况并非个例,他还指出这是一条灰色产业链。 为了让技术真正服务于美好生活,我们需要三管齐下:技术机构要提升模型的溯源和抗干扰能力;监管部门要关注新型网络不正当竞争;广大用户也要提升数字素养。唯有协同推进这三方面的工作,才能营造一个更清朗的人工智能应用生态。 中国社会科学院的李元琨曾观察到这种产业链的存在。与此同时,龙翀介绍了算法专家们采取的具体措施。郑值也分析了大模型容易被干扰的原因。这些信息都在告诉我们,要警惕算法投喂虚假信息并强化治理。