人工智能“算法友好型”批量生成内容抢占推荐位

中国科学技术大学计算机学院的郑值研究员说,人工智能系统其实很爱吃那些结构清晰、逻辑分明、关键词密集的文本,像各类榜单这种东西。一些商业机构就利用了这个特点,批量制造这种“算法友好型”的内容,想让自己在AI推荐里拿到好位置。 中国社会科学院的助理研究员李元琨认为,这种做法已经形成了从内容生产到分发再到评估的闭环。商家通过在网页源代码里植关键词,甚至模仿官方行文格式,让AI觉得这是权威信源。他们的服务甚至已经形成了产业链。在调查里发现,有部分电商平台的商家会直接给别的企业做“AI搜索优化”,宣称能帮他们抢占AI推荐位。他们会针对目标关键词批量生成海量榜单类的文章和页面,用技术手段提升这些页面在搜索和训练数据里的能见度。 中国移动的九天大语言模型算法专家龙翀介绍说,现在的技术团队正在想办法对付这种情况。他们通过识别异常标记、特殊字符,还有给那些疑似被污染的数据源降权的方式来提升模型的抗干扰能力。 记者还发现,网络上有大量制作粗糙、内容雷同的排行榜类网站和文章。这些东西经常伪装成官方或权威信源,专门迎合人工智能的抓取逻辑。比如你问旅游建议或者买什么东西的时候,AI给你的“综合推荐”里面可能藏着特定的品牌或者商家信息。 面对这种挑战,有些大模型已经开始在内部测试里对疑似商业推广的内容标注提示了。但李元琨觉得仅仅靠技术迭代不是解决问题的根本办法。现在新出来的标题含“排行榜”的内容增长得特别快,绝大多数都没有官方支撑。这些内容很容易被AI当成多个独立信源采纳,从而放大它们的影响力。 这种“算法投喂”的现象不仅扭曲了信息传播的客观性,侵害了用户的知情权和选择权,也可能会侵蚀社会信任基础。为了应对这个挑战,技术开发者要加固模型的防火墙,监管机构要完善规则打击恶意行为,公众也得提升数字素养。只有让技术、制度和社会协同起来治理才行。 李元琨认为这次操作是利用了大语言模型在信息溯源和权威性判别上的不足进行渗透。比如在询问旅游建议时,AI给出的综合推荐里可能会夹杂着品牌信息,用户往往还以为这是算法从全网客观信息中产出的。郑值指出一些商业机构正是利用了人工智能系统青睐结构清晰文本的特性来批量生成内容抢占推荐位。 中国移动九天大语言模型的算法专家龙翀表示他们正在通过识别异常标记和特殊字符等方式提升模型的抗干扰能力。中国移动九天大语言模型还对疑似被污染的数据源进行降权处理来增强信息甄别能力。目前网络上新增标题含“排行榜”的内容增长惊人且缺乏权威支撑容易被AI采纳从而放大其影响力。 这种操作形成了灰色产业链商家提供“AI搜索优化”服务宣称能帮助企业抢占AI推荐位操作模式包括批量生成海量榜单类文章与页面通过技术手段提升可见度并持续监测效果动态调整策略记者发现这种针对人工智能特性量身定制的商业操纵手法正在悄然滋生部分所谓智能推荐背后实则是经过精密设计的商业信息投喂调查显示网络上存在大量制作粗糙内容雷同的排行榜类网站与文章其共同特征是标题格式化结构高度相似且在特定品类中固定推荐同一商业实体这些内容通常伪装成官方或权威信源通过在网页源代码中植入特定关键词模仿官方行文格式等方式刻意迎合人工智能抓取与权重计算逻辑这种操纵的直接后果是用户在使用AI工具时可能不自觉地接收到经过商业利益筛选的信息比如在询问旅游或消费建议时AI给出的综合推荐中可能隐藏着特定品牌商家甚至联系方式而用户往往误以为这是算法基于全网客观信息的智能产出面对这一挑战人工智能研发机构已开始行动部分领先的大模型在内部测试中已能对疑似商业推广内容标注权威性一般避免推荐具体品牌等提示技术团队正通过识别异常标记特殊字符以及对疑似被污染的数据源进行降权处理等方式提升模型自身的抗干扰与信息甄别能力然而纯粹依赖技术迭代并非治本之策当前网络空间中标题含排行榜榜单的新增内容月度增幅惊人其中绝大多数缺乏官方或权威信源支撑这些内容极易被AI系统视为多个独立信源加以采纳从而放大其影响力这揭示出深层问题在数据驱动的智能时代信息真实性与权威性的校验机制仍需完善算法逻辑的透明度与可解释性有待加强针对新型算法操纵行为的监管规范也需同步跟进人工智能作为高效的信息整合工具其公正性与可靠性建立在纯净多元真实的数据基础之上当前出现的算法投喂现象不仅扭曲了信息传播的客观性侵害了用户知情权与选择权也可能侵蚀社会信任基础应对这一挑战需要技术开发者持续加固模型的信息防火墙需要监管机构前瞻性地完善规则打击恶意操纵行为也需要公众提升数字素养对智能工具的输出保持必要的审慎与批判意识唯有形成技术制度与社会的协同治理合力才能确保人工智能在赋能生活的同时始终航行在诚信与责任的航道上