OpenClaw 3.7测试版重磅更新:推出插件化上下文引擎,强化多模型多渠道支持

OpenClaw开源项目团队近日宣布发布最新测试版本,此次更新规模创造此项目历史记录;据项目创始人Peter Steinberger介绍,单次版本迭代共包含89条代码提交,涉及200多处系统级缺陷修复,覆盖渠道层、核心智能体、网关内存、安全防护等多个技术维度。这个密集的更新节奏反映出开源社区对该项目的关注度持续升温。 OpenClaw是目前开源生态中影响力最大的AI智能体框架之一。该框架的核心价值于提供一套完整的解决方案,使AI智能体能够在用户自有服务器上独立运行,支持与Slack、Discord、Telegram、飞书等多个主流通讯平台对接,并可根据需求灵活选择不同的大语言模型。相比云端SaaS服务,OpenClaw采用开源自托管模式,用户对数据的所有权和控制权掌握在自己手中,无需向第三方服务商支付长期费用。 本次更新的突破性进展体现在两个核心功能上。其一是实现了多款主流大模型的同步适配。新版本首次支持OpenAI的GPT-5.4与Google的Gemini 3.1 Flash两款最新模型,同时内置模型故障自动降级与重试机制。当主要模型出现限流或服务中断时,系统能够在毫秒级时间内自动切换至备用模型,用户端基本感知不到服务中断。这种"模型路由器"架构设计使得开发者可以根据成本、性能、可用性等多维度因素,灵活调度Claude、GPT、DeepSeek等不同厂商的模型,降低对单一模型的依赖风险。 其二是推出了期待已久的ContextEngine插件接口。这一接口的推出标志着OpenClaw从传统框架向开放平台的重要转变。在此之前,上下文和记忆管理功能被写死在框架核心代码中,开发者如需定制化需求必须修改源代码,成本高且风险大。新版本将这一核心功能模块化,设计了包括bootstrap、ingest、assemble、compact、afterTurn等完整的生命周期钩子,甚至为子智能体的生成前后提供了prepareSubagentSpawn与onSubagentEnded等扩展点。这意味着开发者无需触及核心代码,仅通过编写插件就能实现RAG检索增强、激进压缩、隔离记忆空间等多种上下文管理策略,就像更换软件插件一样简单。 在多渠道集成上,新版本也进行了显著优化。Discord频道的断连死机问题得到根本解决,并改进了频道解析和机器人心跳检测机制。Telegram则新增了主题级别的路由隔离功能,允许同一群组内的不同话题分别对应不同的智能体处理逻辑,大幅提升了多群并行处理能力。频道绑定状态的持久化存储确保了系统重启后数据不会丢失。这些改进继续巩固了OpenClaw在多渠道集成领域的技术优势。 本次更新的200余项缺陷修复涵盖系统各层级。在渠道层面,修复了Telegram草稿流重复、Slack消息路由、飞书Webhook兼容性等问题;在智能体核心层,解决了xAI参数解码、上下文压缩截断提示丢失、OpenAI流式输出兼容性等技术难题;在网关和内存层,处理了Token防连环掉线、QMD内存检索去重、SQLite锁冲突等基础设施问题;在安全防护层,完成了依赖库升级、沙盒逃逸防范、系统命令白名单鉴权等关键安全加固。此外,新版本还优化了西班牙语界面支持、升级了SearchAPI集成、改进了Docker多阶段构建以减小镜像体积并加快启动速度。

OpenClaw此次更新展现了开源社区的创新活力。其插件化架构不仅解决当前技术痛点,更为未来发展奠定基础。随着更多开发者加入,该框架有望成为连接各类AI技术的重要平台,推动行业向更开放协作的方向发展。