问题:大模型规模扩张带来算力与成本压力,应用落地亟需“可用、好用、用得起” 近年来,大模型成为推动新一轮科技变革和产业升级的重要基础,但实际部署中,参数规模持续增大往往带来训练与推理成本同步上升。无论是企业“上云用模”,还是端侧“本地部署”,都普遍面临显存占用高、吞吐不足、长上下文推理效率下降等问题。,办公、教育、工业、内容生产等场景对多模态能力的需求快速增长,市场对“既能看、又能懂、还能执行任务”的模型提出了更高要求。 原因:架构效率与数据范式决定模型能力边界,技术路线从“堆参数”转向“提效率” 记者了解到,千问Qwen3.5-Plus在底层架构与训练体系上进行了系统升级:一上,通过混合专家等方式实现“总参数大、激活参数小”的计算模式,保证能力的同时降低单次推理的资源消耗;另一上,训练从以纯文本为主转向视觉与文本混合标记的预训练,并补充多语言、科学工程、推理等数据,提高知识密度与推理质量,使模型在复杂问题求解、编程与工具使用等任务上表现更稳定、泛化更好。业内人士认为,这表明大模型正在从“规模竞赛”进入“结构创新与工程优化并重”的阶段。 影响:降本增效叠加开源生态,有望加速产业侧应用扩散 据发布信息,Qwen3.5-Plus总参数约3970亿、激活参数约170亿,在保持较高能力水平的同时,降低了部署显存占用,并在不同上下文长度下提升推理吞吐;接口服务价格更下探,有助于中小企业与开发团队降低试用与上线门槛。该模型已在千问APP与PC端接入,同时向开发者提供多渠道获取方式,便于科研、企业与个人进行二次开发与适配。 值得关注的是,多模态能力增强将直接拓展应用边界:从图文理解、文档识别到空间推理、视频理解等任务,都与政务服务、金融风控、工业质检、文娱生产等场景紧密对应的。进一步看,面向“智能体”方向的能力整合,使模型不再局限于问答与生成,而是有望在手机与电脑等终端执行跨应用、多步骤任务,为自动化办公与流程优化提供新的技术路径。 对策:在开放共享中强化安全与治理,在工程化中提升可控与可用 推动大模型从“能力展示”走向“可靠生产力”,需要产业链各方共同推进:一是坚持开源与开放平台并行,在合规前提下开展模型评测、工具链适配与行业数据共建,完善生态;二是强化安全治理与风险防控,围绕数据来源合规、内容安全、隐私保护与可解释性等关键环节,建立覆盖训练、部署、调用的全流程管理机制;三是面向行业场景推进工程化落地,通过长上下文能力、检索增强、工具调用、工作流编排等手段,提高真实业务中的稳定性与可控性,减少“能演示、难上线”的落差。 前景:多模态与智能体将成为竞争焦点,高效率路线或重塑大模型普及速度 从行业演进看,大模型竞争正从单一文本能力扩展到“多模态理解+推理+执行”的综合能力。谁能在效率、成本与可用性之间取得更好平衡,谁就更可能推动大规模应用。随着推理效率提升与接口成本下降,大模型有望更快进入教育、医疗辅助、制造与城市治理等领域的细分环节,推动“工具化、平台化、行业化”提速。业内预计,未来一段时间,围绕高效架构、长上下文、端云协同与智能体强化学习等方向的创新仍将密集出现,应用端竞争也会更为激烈。
千问3.5-Plus的发布反映了当前大模型技术发展的新趋势:从追求参数规模转向追求参数效率。通过架构、算法与工程优化的结合,在更可控的资源开销下取得更强的性能表现,不仅降低了应用门槛,也为大模型更广泛落地创造了条件。随着多模态能力与Agent应用持续深化,大模型正从单一的文本工具走向多任务智能助手,继续拓展人工智能在生产与生活中的应用空间。