国产GPU的进步相当亮眼,摩尔线程这家公司,2025年的营收直接涨了两倍多。最近他们公布了年报的预计情况。2025年公司赚的钱大概在14.50亿到15.20亿之间,比上一年整整多了230.70%到246.67%。与此同时,算上那些不是经常发生的事儿,公司亏了10.40亿到11.50亿,不过这个亏损额比以前少了29.59%到36.32%。这份报告不光展示了这家高科技企业强大的增长势头,还反映出咱们国家在AI算力这一块——图形处理器(GPU)方面自己的创新能力越来越强。公告里说业绩这么好是因为AI行业发展得快,大家都想要高性能的GPU。 特别是那种AI训练和推理合二为一的智算卡MTT S5000,它的竞争力越来越强,老百姓也认可它了,这就直接带动了公司的收入和利润上涨。值得一提的是,这已经是摩尔线程第四年营收高速增长了,亏钱的数额也已经连续第四年减少了。这就好比存钱存钱又存钱了。GPU这块业务门槛很高、花大钱、时间长、生态建设也难。企业得从芯片设计开始一直到软件应用落地都要打通,对研发能力要求极高。 为了突破这些难题,摩尔线程选择了从底层架构出发的自主创新路子。他们从零开始建起了一个完整的GPU体系叫MUSA。这个体系让他们在国内成了很稀少的“AI计算加速”和“图形渲染”两条腿走路的企业。他们能同时给企业和消费者提供服务,这就形成了独特的竞争优势。技术上摩尔线程发展得特别快,五年内他们就把五款芯片做出来了,四代架构也都升级完了。产品现在从单个芯片、计算卡扩展到了大型的智算集群了。 他们的单芯片上集成了AI计算、图形渲染、科学计算和视频编解码四个引擎,功能上跟国际大牌子一样全。这些技术到底行不行得看实际表现。摩尔线程的旗舰产品MTT S5000已经开始大批量生产了,性能非常好。用这个搭建起来的万卡集群计算能力达到了10 Exa-Flops(亿亿次)。在大模型训练中这套系统非常高效稳定。 在实际应用中稠密模型能用到60%的算力利用率,混合专家模型也有40%的利用率。在实际训练时间上超过90%都能用上这套系统。训练效率高达95%。这些数字说明这套系统能稳稳当当支持万亿参数级别的大模型训练了。 任何技术都需要好的软件生态来配合。摩尔线程的MUSA架构既坚持自己原创的东西又能兼容国际主流的开发环境。这样一来开发者的使用成本就低了很多。 2025年12月他们和硅基流动合作成功适配了DeepSeek-V3 671B大模型;2026年1月联合智源研究院用千卡集群完成了具身大脑模型RoboBrain 2.5的训练。 这两件事证明了国产算力在复杂任务上有了很大进步。为了做出这些成绩公司在研发上投了很多钱:2022年到2025年上半年累计投了超过43亿元。 公司还表示新拿到的钱还要继续投到研发项目上去。这次摩尔线程的业绩飞跃是咱们国家坚持科技自主自强的成果之一。 从减少亏损和增加营收上我们能看到国产高端算力基础设施正在变得越来越好。面对全球AI竞争的激烈局面我们还得继续努力夯实基础才行。