问题——从“会写”到“会判”,企业决策对AI提出更高要求;过去两年,生成式AI快速发展,全球科技产业从“比拼参数”转向“落地应用”。行业共识逐渐明确:AI的价值正从内容生产、知识问答等前端环节,向业务研判、风险控制、资源配置等更高价值的决策环节延伸。机构预测,到2027年,商业决策中将有相当比例由决策智能类AI辅助或自动完成。但现实挑战随之显现:AI参与关键决策时,企业不仅要关注“能否给出答案”,还需面对“答案如何生成、能否验证、责任归属”等问题。政务、金融、能源等高责任场景,模型的“黑盒性”、偶发错误和逻辑跳跃可能引发合规、风险和治理问题。 原因——黑盒模型与高责任决策存在天然矛盾。罗引指出,企业级AI能否进入决策核心,关键在于系统性推演和判断能力,而非模型规模。当前许多生成式模型擅长快速生成内容和语言表达,但在因果推理、规则校验、逻辑追溯等仍有不足:其输出多基于统计对应的性,面对数据冲突、复杂业务规则或动态目标时,容易产生“看似合理但难以验证”的结论。企业决策则需遵循制度规则、行业规范和组织经验,同时接受审计、复盘和迭代。因此,企业需要的是可追溯、可验证的“过程性智能”,而非一次性输出。在不确定性增加的商业环境中,决策越关键,对可解释性、可控性和稳定性的要求就越高。 影响——决策智能成为AI从“工具”转向“体系”的分水岭。业内人士认为,如果AI仅用于内容生成或办公提效,其价值有限;而进入经营分析、风险预警、策略制定等核心流程后,它将重塑企业治理和业务运行模式。一上,决策效率可能提升:通过整合海量非结构化数据并结构化表达,减少信息不对称和主观偏差,提高分析时效性。另一方面,风险治理要求同步升级:企业需建立覆盖数据来源、知识体系、推理逻辑和执行反馈的闭环管理机制,避免“幻觉结论”导致误判,同时形成可审计的证据链,支持合规与问责。更深层的影响在于,AI角色将从“辅助工具”变为“协同参与者”,推动决策从经验驱动转向“数据—知识—推理”融合驱动,这对企业的信息化基础、知识工程能力和治理体系提出更高要求。 对策——通过架构方法提升可解释性,构建可审计的决策链路。中科闻歌提出的DOMA架构(数据Data、本体Ontology、模型Model、智能体Agent)旨在打通信息理解、知识表达、推理计算和任务执行。其核心思路是:整合多源异构数据,系统化表达行业规则和业务约束,在模型基础上形成可解释的推理空间,再由智能体在明确边界内执行任务并生成可追溯结论。罗引强调,在政企和高责任场景中,AI必须“推理过程透明、执行边界可控”,而非仅靠概率输出模糊答案。基于此方向,公司已围绕非结构化数据分析和复杂业务建模形成平台能力,并在多个行业场景中探索应用。业内观点认为,此类架构的价值在于将“模型能力”融入“系统能力”,使AI从单点工具升级为具备治理和复盘机制的决策系统,降低落地风险。 前景——从单一模型竞争转向“决策系统工程”将成为行业趋势。多位专家预测,未来大模型将持续进化,但企业能否用好AI取决于三项能力:一是数据治理和质量控制,确保输入可信、可用、可追溯;二是行业知识和规则的工程化表达,使经验能被系统理解和调用;三是面向责任场景的评测、审计与安全机制,实现从生成到执行的全链路管理。随着AI深入业务流程,企业需将“决策可靠性”作为核心指标,建立可验证、可复盘、可持续迭代的治理体系。决策智能将成为生成式AI进入产业核心的关键,推动行业从“零散应用”走向“系统性重构”。
AI技术正从“工具”迈向“伙伴”;在这个转型中,决策智能的发展不仅关乎技术突破,更反映了对责任与价值的思考。正如中科闻歌的理念所示,真正的智能不在于快速给出答案,而在于系统性理解问题本质——这一认知或将重塑AI的未来方向。