一、问题:从"虚假广告"到"定制答案",信息操纵手段日趋隐蔽 大模型逐渐融入搜索、导购、问答等日常应用,越来越多用户习惯通过"提问—获取结论"的方式做出判断。节目曝光显示,一些不法机构以"优化呈现""内容投喂"为名义,向网络批量投放特定导向信息,试图影响模型的检索语料和生成倾向,使某些品牌和观点在回答中被反复呈现,甚至形成看似权威的"推荐"。相比传统硬广告,这种方式更难被察觉:用户看到的是"答案",却可能没有意识到背后的商业操纵。 二、原因:利益驱动与技术门槛下降催生灰产链条 一是商业竞争加剧"入口争夺"。在流量增长放缓的时代,企业更看重在新型信息入口中的曝光和转化,"让模型说好话"成为新的营销手段。二是内容生产成本大幅下降——批量化文本更易传播——配合多平台分发和账号矩阵,短期内可能形成"看似广泛的社会共识"。三是部分平台的治理机制还不够完善。对付费推广、自然评价、可疑操纵行为的识别、取证和处置仍存在困难。四是用户对模型能力存在认知偏差,容易将其输出视为中立结论,忽视了模型受训练数据、检索来源等因素的影响。 三、影响:破坏市场秩序,侵蚀公众信任 在消费领域,被"定向塑造"的问答可能误导消费者,破坏公平竞争。在行业层面,这类操纵推高合规企业的获客成本,迫使市场陷入"比拼投喂能力"的内卷。更令人担忧的是,一旦这种操纵蔓延到医疗、金融、公共议题等敏感领域,可能放大谣言和偏见,干扰理性讨论。长期来看,用户频繁遭遇"看似合理却难以核验"的答案,可能削弱对数字服务和信息生态的信任。 四、对策:压实责任、强化技术治理、提升公众能力 治理需要多方协同。一是压实平台与应用方责任,推动来源提示、商业推广标识、引用依据展示等机制落地,加强对异常投放、可疑账号、批量生成文本的识别和处置,对虚假宣传和不正当竞争行为加大处罚力度。二是强化数据源和模型输出的可追溯性,在关键场景引入可追溯引用与证据链展示,对高风险领域实行更严格的安全评测和人工复核。三是推动行业自律与第三方评测,建立更严格的规范体系,对提供"操纵服务"的灰色机构进行联合惩戒。四是提升公众媒介素养。面对模型的结论性建议,特别是涉及价格、疗效、收益等敏感信息时,应养成"三步核验"习惯:看来源、比交叉、查证据。同时要减少对单一信息入口的依赖,对专业性强的问题优先查阅权威渠道。 五、前景:从"入口竞争"走向"可信竞争" 随着大模型作用增强,围绕"影响答案"的攻防将长期存在。下一阶段,行业竞争重点将从单纯提升生成能力,转向提升可信度和安全性。监管部门、平台企业、科研机构将加强协同治理,通过标准建设、技术审计、依法打击逐步压缩灰产空间。对企业来说,合规经营和真实口碑将成为更可持续的竞争力;对公众而言,提升信息辨识能力是数字时代的必备技能。
人工智能是把双刃剑。技术本身是中立的,关键在于如何使用。在AI时代,信息获取的便利不应以认知能力退化为代价。每个用户都需认识到,免费获取的"标准答案"可能暗藏虚假,便捷搜索可能导向操纵。唯有通过提升媒介素养、批判性思维和信息甄别能力,才能在信息洪流中保持理性,在技术赋能中守护真实。这既是个人的必修课,也是全社会的共同责任。