问题——如何大模型性能快速提升的同时降低训练与部署门槛、扩大应用范围,正成为行业竞争的核心。随着模型参数量不断增长,算力需求、推理成本和落地效率对企业与开发者提出了更高要求;同时,产业需求也从基础的对话能力转向多模态理解和任务执行能力。在此背景下,阿里巴巴开源发布千问Qwen3.5-Plus,试图通过结构创新和工程优化,在性能、成本与效率之间找到更优平衡。 原因——技术上,Qwen3.5-Plus延续了以效率换规模、以架构创新降成本的思路。一上,模型采用总参数3970亿、激活参数170亿的混合专家设计,通过“按需激活”减少推理计算量,可控资源占用下提升综合表现。另一上,新模型支持原生多模态训练,从文本预训练转向视觉与文本数据的联合学习,并优化中英文、多语言、STEM及推理数据的配比,增强跨任务泛化和复杂推理能力。此外,团队注意力机制、训练稳定性和多token预测诸上进行了优化,提升了长上下文场景的计算效率,为更大规模应用奠定基础。 影响——评测显示,Qwen3.5-Plus知识推理、指令遵循和通用智能体任务中表现优异,在多模态推理、视觉问答、文本识别和视频理解等领域也成绩突出。更值得关注的是工程优化带来的实际收益:在长上下文推理任务中,吞吐量提升数倍至十余倍,显存占用显著降低,同时API价格下调,形成更低门槛的调用方案。这将带来三上影响:第一,开源模型能力提升叠加成本下降,帮助中小企业和开发者更高效地进行产品化尝试;第二,增强的多模态能力使模型从信息处理迈向“图文视频一体化理解”,在内容审核、教育培训、工业质检等场景具备更强的迁移能力;第三,智能体与工具调用能力的进步推动“任务规划—检索—执行—反馈”闭环落地,加速大模型从辅助工具向生产力组件的转变。 对策——产业链各方需同步推进配套机制,将模型能力转化为稳定可控的生产力。企业侧应重点关注三点:一是选择高价值、可量化的业务流程,融入多模态理解、文档解析等能力;二是建立涵盖准确率、时延和成本的业务评测体系;三是强化安全合规管理,确保数据脱敏与权限控制。开发者侧则可利用开源生态优势,结合插件化工具链和私域知识库提升可靠性,并在长上下文、视频输入等新能力上探索可复用的行业模板。 前景——开源路线正快速缩小与闭源头部模型的差距,技术创新重点从“堆参数”转向“提效率、降成本”。原生多模态训练与高效推理架构的结合意味着未来模型迭代将更注重跨模态理解和任务执行能力的融合。随着算力基础设施和优化技术的进步,大模型的应用将从单点工具转向平台化和组件化,“低成本调用”“复杂文档处理”“可执行智能体”将成为主流方向。同时,行业也将更加重视标准化评测、数据安全治理和可持续的开源生态建设。
在全球数字经济加速发展的背景下,基础模型的自主创新能力至关重要。“千问3.5”的突破不仅展现了我国科技企业的技术实力,也揭示了人工智能发展的重要趋势——从追求参数量转向提升计算效率和拓展应用场景。此实践为构建安全可控的技术生态提供了参考,也为全球AI治理贡献了中国方案。未来如何将技术优势转化为产业动能仍需业界持续探索。