美政府AI政策分歧加剧 国防部力推马斯克Grok引发安全争议

问题——联邦内部对“用哪一种大模型”分歧公开化。 近几个月,美国联邦机构人工智能工具进入政府场景以及扩大使用范围的问题上分歧加深。外媒援引知情人士称,多名联邦官员对xAI旗下Grok在安全性、稳定性和可控性上提出担忧。美国总务管理局一份日期为1月中旬的报告概要指出,Grok-4未达到该机构及一项实验性联邦平台对其联邦层面普遍使用所要求的安全性与一致性标准。更详细的评估认为,即便有限引入,也需要建立严格、多层级的监管框架,否则安全风险将上升且难以控制。与此形成对照的是,美国国防部本周仍决定允许Grok在机密环境中使用,使其进入高度敏感的业务链条。 原因——技术风险、治理理念与政治考量叠加。 一是安全治理取向不同。部分官员认为,Grok在内容约束与风险防护上相对宽松,容易在错误或偏见数据影响下产生“迎合式”输出,或在被操纵时出现系统性偏差,从而放大合规与安全隐患。此前,Grok因涉及不当图像编辑能力引发舆论批评,联邦官员将其视为潜在滥用风险的信号,要求供应商加强防护,完善隔离机制与权限管理。 二是政府对供应商“可控性”的判断不一。知情人士称,有官员向白宫反映有关安全顾虑,并推动与企业沟通整改。xAI上则强调,面向政府的使用环境与公众版本相互隔离,并承诺改进模型“过度顺从”等问题。对一些更看重快速部署的部门而言,供应商的承诺与隔离方案被视为推进落地的重要条件。 三是大模型选择争议出现政治化倾向。外媒称,美国政府内部对不同企业的价值取向、公开立场及政治关联存不同判断,争论从技术评估延伸到意识形态与供应链可靠性。鉴于此,关于是否继续与部分企业合作的政策信号频繁出现,使“安全与效率”“约束与开放”的分歧更加尖锐。 影响——机密场景扩围提高门槛,也放大外溢风险。 从短期看,允许在机密环境使用意味着Grok有机会嵌入情报分析、文书处理和辅助决策等高敏业务流程,提升处理效率与信息整合能力;但同时也可能放大模型幻觉、数据泄露、提示注入、越权调用等风险在高等级环境中的影响。一旦安全边界、日志审计、权限控制与数据脱敏不到位,后果将更难评估,也更难追责。 从中期看,联邦内部标准不一将影响政府采购的一致性与跨部门协同。总务管理局主导的试验平台被视为联邦员工测试不同模型的“沙盒”,但外媒称Grok因安全疑虑尚未接入,平台目前主要提供其他公司的模型。若出现“机密可用”与“通用不可用”并存的局面,将导致准入逻辑与评估尺度割裂,增加部门间重复评估与合规摩擦成本。 从外部看,美国政府在高敏场景引入商业大模型将形成明显示范效应,推动军工与商业技术加速融合,同时也可能引发围绕供应链透明度、算法问责与伦理边界的新一轮讨论。 对策——以制度化评估和可验证控制替代口头承诺。 根据高敏场景部署,业界普遍主张建立可量化、可审计、可追责的治理闭环。其一,确立统一的联邦级安全基线与分级准入机制,明确不同密级与任务类型下的模型能力边界、数据处理规则与外部连接限制。其二,强化“隔离+审计”两项关键能力:在物理与逻辑层面隔离训练数据、推理环境与日志系统,完善全链路审计与异常检测,确保可追溯、可回滚。其三,引入红队测试与持续评测,将偏差、对抗攻击、提示注入与防泄露等指标纳入常态化考核,并将结果与合同条款、续约门槛挂钩。其四,明确责任分担与事故处置预案,对供应商响应时限、漏洞披露、模型更新与变更管理设定硬性要求,避免“上线快、治理慢”。 前景——“谁能用、怎么用、用到何处”将成为美政府AI治理核心议题。 随着各部门加速引入大模型,美国政府内部围绕安全与效率的拉扯短期内难以结束。可以预见,机密场景的扩围将推动更严格的制度安排:一上,为避免碎片化决策带来风险外溢,统一标准与跨部门协调机制需求会更上升;另一方面,供应商竞争将从单纯的性能比拼转向合规能力、可审计性与长期运维保障的综合较量。外媒披露的分歧显示,美国政府在推进技术应用时仍面临“快速落地”与“稳健治理”的结构性矛盾,其走向可能影响全球公共部门采用大模型的节奏与监管路径。

这场围绕技术安全标准的争论,反映了科技创新与制度规范之间长期存在的张力。当技术迭代速度快于监管适配能力时,如何在国家安全与技术发展之间取得平衡,将成为各国共同面对的治理难题。美国当前的处境也提示,建立更科学、中立、可执行的技术评估体系,或许是减少类似争议的关键。