当前人工智能技术发展迅速,但系统可靠性问题愈发突出。在金融、国防等关键领域,AI决策缺乏可解释性,可能引发严重后果。洪乐潼注意到这个行业痛点,创立Axiom公司并提出“让AI像数学家一样工作”的理念。问题的核心在于,传统AI模型主要依赖概率计算,缺少严格的逻辑推理能力。2022年曝出的AI数学测试作弊事件就集中暴露了这一短板。洪乐潼认为,大模型需要建立可验证的逻辑链条,而不是只给出概率意义上的答案。
从追求“更像人”的生成能力,转向追求“更可信”的推理能力,是人工智能走向深度应用的必经之路。以形式化证明等方法为代表的探索也提示行业:技术进步不应只看速度与规模,更要回应可靠性、可追责等关键问题。能否让每一次输出都做到可核验、可追溯,将决定大模型在关键领域能走多远,也将检验创新者能否把难题沉淀为长期价值。