问题——热度与能力错位引发学界再审视;近期,生成式应用带动大语言模型快速进入产业与公众视野,文本生成、代码辅助、信息检索等能力不断刷新外界预期。但萨顿演讲中直言,这类系统的核心机制仍是"预测下一个词",本质上是对语言统计规律的高效拟合,并不等同于理解世界、制定目标、执行行动的智能体。该判断为业界热潮降温,也提出一个现实问题:为何看似"能写会算"的系统,在科学家眼中仍难称真正智能?原因——缺少目标、经验与持续学习三道"硬门槛"。一是目标导向不足。真正的智能以任务目标为牵引,通过反馈不断调整策略,而大语言模型主要从静态语料中学习,缺乏在现实任务中"为达成目标而改变自身"的闭环机制。二是经验交互缺失。婴幼儿通过抓握、碰撞、失败与再尝试建立物理直觉,而主要依赖文本训练的模型难以形成对因果与常识的稳定把握,容易在涉及物理世界的情境判断上出现不合常理的结论。三是持续学习能力薄弱。人类习得的技能具有较强保留性,但大模型在面向新任务调整时,可能出现对既有能力的削弱甚至"遗忘"。萨顿团队提出的持续反向传播等思路,尝试通过动态调整网络内部结构增强长期学习,反衬出现有训练范式在"边学边用、不断积累"上仍存短板。影响——技术路线与产业投入或迎结构性调整。从科研层面看,围绕"预测式模型能否通向通用智能"的争论将更趋深入,研究焦点可能从单纯扩规模转向学习机制创新与评测体系重塑:不仅考察语言表现,更要检验模型在开放环境中的规划、试错与自我改进能力。从产业层面看,生成式应用仍有现实价值,但过度放大其"智能"属性,可能带来预期管理风险:在复杂场景中,系统的可靠性、可解释性与安全边界仍需严格验证。同时,具备环境交互能力的多模态与机器人方向有望获得更多关注,推动资源从"参数竞赛"部分转向"能力结构升级"。对策——以世界模型与强化学习为牵引,补齐"行动—反馈—成长"链条。多位学者提出,"世界模型"或可成为突破口:智能体需要通过感知建立对环境的内部表征,并据此进行预测、规划和决策,再在行动反馈中校正认知。这意味着未来研究应更重视三类建设:其一,面向真实或高保真模拟环境的交互式训练平台,让系统在可控风险下形成经验;其二,强化学习与表示学习等方法的融合,形成目标驱动、可自我纠错的学习框架;其三,持续学习机制与评估标准建设,避免"学新忘旧",并提升跨任务迁移能力。涉及的探索正在推进,一些项目已开始在虚拟家庭、厨房等开放环境中训练智能体,检验其自主探索与解决问题的能力。前景——从"会说"走向"会做",智能体竞争或进入下半场。综合学界与产业动向看,下一阶段竞争关键不在于生成更流畅的文本,而在于能否在动态环境中稳定执行任务:既能理解目标,又能通过试错积累经验,并在长期运行中保持能力增长。可以预见,未来人工智能发展将呈现"语言能力继续巩固、环境交互加速突破"的并行格局。谁能率先建立可规模化的交互训练与持续学习体系,谁就可能在新一轮技术迭代中占据主动。
萨顿的警示为当前技术发展提供了重要的反思视角。在追求技术突破的过程中,保持对智能本质的清醒认识至关重要。正如这位图灵奖得主所言,真正的智能不在于对人类行为的精确模仿,而在于系统能否像生物体一样,通过与世界的持续互动实现自主学习和适应。此理念或将引导人工智能研究走向更务实和深入的方向,推动技术从"看起来智能"迈向"真正智能"的转变。对整个行业而言,这既是挑战,更是重新定义发展路径的契机。