阿里巴巴除夕发布千问3.5,性能跻身全球开源前列,推理效率大幅提升,API定价为国际同类产品的十八分之一

问题:大模型应用“用得起、用得稳”仍是行业关切 近年来,大模型加速进入产业应用,但高算力需求、推理成本偏高、部署门槛较大等问题,仍限制着中小企业与开发者的规模化落地。一方面,越来越多场景对实时响应、并发吞吐和稳定性提出更高要求;另一方面,算力资源与能耗成本压力持续存在,促使行业竞争重心从“拼参数规模”转向“拼效率与性价比”。在该背景下,开源模型的可获取性与可扩展性,被认为是构建应用生态的重要支点。 原因:底层架构革新与“稀疏激活”思路推动效能跃升 据介绍,此次开源的千问Qwen3.5-Plus在底层架构上进行了全面升级,采用总参数约3970亿、激活参数约170亿的方案,在保持能力上限的同时,通过更高效的计算路径加速推理。这类“以更少激活参数完成更强推理”的路线,核心在于让计算资源集中在更关键的模块与步骤上,从而减少无效计算与显存占用,提高单位算力的有效产出。公开信息显示,该模型推理侧显存占用可降低约60%,最大推理吞吐最高可提升至19倍,体现出面向实际部署的工程化取向。 影响:降本与开源叠加,或加速应用扩散与产业协同 从产业链角度看,显存占用下降与吞吐提升,直接对应部署成本与服务能力的改善:在同等算力条件下可支持更高并发,或以更低硬件规格达到既定性能目标,有助于推动大模型从“试点验证”走向“规模上线”。此外,API价格下探至每百万Token 0.8元,将深入降低企业在客服、办公助手、内容生成、代码辅助、知识检索等场景的试用与迭代成本,促使更多开发者围绕开源模型进行二次开发、工具链适配与行业数据融合,带动上下游协作效率提升。 从竞争格局看,开源模型能力提升与成本下降,正成为国内外厂商比拼的重要维度。随着模型能力与推理效率逐步贴近应用需求的“性价比区间”,产业竞争将更集中于数据治理、场景理解、工程落地与合规安全等综合能力,而非单一指标的堆叠。 对策:推动开源生态走向高质量发展,需兼顾安全与规范 开源有助于激发创新,但模型扩散也对安全治理提出更高要求。面向产业应用,一是应强化模型能力边界管理,完善内容安全、隐私保护、合规审查等机制,确保在政务、金融、医疗等敏感场景中可控可用;二是要加强推理服务的稳定性与可观测性建设,提升模型在高并发与复杂任务下的可靠表现;三是鼓励形成开源社区协同机制,推动评测体系、工具链与数据处理规范化,减少重复建设,提高生态整体效率。对企业而言,在推进开源与商业化并行的同时,也需建立可持续的服务支持、版本维护与漏洞响应体系,增强产业用户的长期信心。 前景:从“更大”走向“更省”,大模型或迎来应用规模化窗口期 随着行业进入“以效率换普及”的阶段,基础模型的竞争正从“能力上限”逐步转向“成本曲线”。千问3.5-Plus在参数规模、激活策略、推理吞吐与定价上的组合变化,反映出大模型正在向“高性能、低门槛、易部署”方向演进。可以预期,未来一段时间,开源模型将更频繁地与行业知识、企业数据、智能体工具、边缘部署等结合,推动应用从单点能力展示走向系统性生产力提升。与此同时,围绕高效推理、软硬协同、数据治理与安全合规的综合竞争也将进一步加剧。

在全球数字化进程加快的背景下,核心技术的自主创新正成为竞争力的重要支撑。阿里巴巴此次开源新模型,既说明了其研发能力,也为人工智能更广泛落地提供了新的路径。未来,随着更多企业参与开源生态共建,中国有望在人工智能领域形成更强的创新与产业协同能力,为全球数字经济发展提供更多动能。