从开源框架到自我迭代机制:业内人士解析大模型未来一年“进化”竞速

问题——大模型进入深水区,能力提升为何仍面临新瓶颈 随着大模型在文本、代码与多模态等领域能力快速提升,行业竞争正在从“参数规模、榜单成绩”转向“系统效率、工程可用性与持续迭代能力”;在有关讨论中,罗福莉指出,当下最需要回答的不再是“能不能做”,而是“能不能以可承受的成本、足够快的速度、稳定可靠地做”。尤其是长上下文应用逐步迈向百万级乃至千万级输入规模后,真正影响落地的关键集中在推理成本与吞吐速度。高价值任务只有在成本与效率达到平衡后,才可能大规模交由模型处理。 原因——开源框架与智能体工程化加速,推动技术路线重心变化 谈及OpenClaw的价值,罗福莉将其影响概括为两点:一是开源带来的“能力底座”与“创新空间”。她认为,开源框架以可复用、可验证、可对比的工程体系,为基座模型提供清晰的性能参照,同时通过结构化设计与工具链协同,帮助释放模型能力上限。对仍在追赶闭源模型的国内开源团队而言,这类框架有助于缩短从研究到产品化的距离,加快试错与迭代。 二是对智能体(Agent)开发的牵引作用。智能体要完成复杂任务,离不开规划、执行、反馈与工具调用等环节的协同。框架化能力能够把“单点模型能力”组织成“端到端任务能力”,从而拓展应用边界。 在与同类编码工具的对比中,罗福莉表示,部分深度编码开发者可能仍更偏好传统工具链;但从产品理念和演进方向看,行业正在逐步向智能体框架靠拢。她以近期部分产品的连续迭代为例指出,其功能增强在一定程度上吸收了智能体式工作流,这也反映出智能体工程化正成为新的共识方向。 影响——算力约束倒逼算法创新,产业竞争转向“效率与生态” 谈及国内团队的阶段性优势,罗福莉强调,过去两年在算力相对受限条件下,国内团队通过模型结构与算法路径创新取得突破,说明“硬件受限不等于能力停滞”。她提到的细粒度混合专家(MoE)以及注意力优化等实践,体现出通过更精细的计算分配、更高效的推理路径来换取性能提升的路线。,企业也在探索下一代模型结构与训练方法,希望在成本可控的前提下实现能力跃迁。 这个趋势的外溢效应也在显现:当智能体普及带来推理需求的指数级增长,竞争将不再局限于模型本身,而会延伸至算力供给、芯片能力、系统软件、数据治理与能源保障等基础环节。换言之,大模型竞争正在从“单项比拼”走向“全栈协同”的综合较量。 对策——从“拉长上下文”转向“降本增效”,完善数据与学习机制 针对长上下文应用的现实瓶颈,罗福莉认为关键在于让模型在长输入下仍能高效运行。只有速度与成本可控,用户才会把更高价值、链路更长、容错要求更高的任务交给模型处理。围绕这一目标,相关团队正在探索更有效的学习算法、长依赖文本的采集与构建方法,以及复杂环境下轨迹数据生成等技术路径。业内普遍认为,数据将从“量”转向“质”,训练将从“堆资源”转向“提效率”,评测也将从“静态指标”转向“真实任务”,这些将成为下一阶段的重要抓手。 前景——“进化”成为关键词,“自进化”或重塑创新范式 展望未来一年及更长周期,罗福莉用“进化”概括大模型趋势:模型能力增强与智能体框架成熟将共同推动推理需求快速上行,并深入放大对底层基础设施的拉动作用。更值得关注的是“自进化”机制的潜力。她认为,若模型能够在较长时间内稳定完成确定性任务,并基于反馈持续调整策略、生成新方案,其能力边界可能从“替代既有生产力”延伸到“创造新事物”。据其观察,国内已有模型能在部分确定性任务中连续运行数天,这为更强的持续学习与自我迭代能力提供了现实基础。 论坛现场交流结束后,罗福莉受到与会者关注。在主办方协调下,她婉拒进一步采访安排,但仍对部分问题作出回应,并鼓励关注者持续投入研究与实践。

大模型技术的进化之路机遇与挑战并存。在算法创新与硬件突破的共同推动下,如何在技术前瞻性与商业可行性之间取得平衡、构建可持续的技术生态,将成为影响未来竞争格局的关键。这场由技术进步引发的产业变革,正在重新划定人机协作的边界与可能性。