北大团队在专用计算芯片这块儿搞出了大动作,特别是在模拟计算架构上,把能效比大幅度提升了。

最近,咱们国家的科研团队在专用计算芯片这块儿搞出了大动作,特别是在模拟计算架构上,把能效比给大幅度提升了。咱们现在都处在一个人工智能技术应用越来越广、数据量像爆炸一样增长的时代,算力就成了驱动科技创新的核心动力。你看像推荐系统、图像识别这些活儿,对底层计算硬件的要求越来越高,得既要高效又得省电。 你知道现在的电脑和手机用的基本上都是基于冯·诺依曼架构的那种通用数字芯片吧?这种芯片在处理复杂计算任务的时候,经常会遇到“存储墙”和“功耗墙”的限制,根本应付不了咱们对实时智能计算的需求。所以全世界都在想办法找新的计算架构来突破这种传统模式。 最近北京大学集成电路学院还有人工智能研究院的孙仲研究员团队在这个领域取得了关键进展。他们盯上了机器学习里面一个特别重要的算法——非负矩阵分解(NMF),这个算法有点像个“数据解读者”,用来处理图像分析、信息聚类还有推荐系统这些关键场景特别管用。不过问题在于,这个算法要同时对两个矩阵进行迭代计算,复杂度高得吓人,普通数字芯片串行处理起来太慢了。 孙仲研究员说他们的思路是“专事专办”,给这个特定的任务设计专门的硬件,而不是让那些“万能”的通用计算单元来干这事儿。他们没走传统数字计算的老路先把数据变成“0”和“1”再算,而是利用阻变存储器(RRAM)的物理特性,比如电导值直接处理数据,实现了“存算一体”。这样就不用数据在处理器和存储器之间来回折腾了,既省电又快。 更关键的是,他们设计了特别精巧的电路拓扑结构,还跟算法配合着优化了一下。这就把原本需要反复迭代的步骤直接在模拟电路里一步搞定了。这就像直接在存储单元里算了一样。为了验证这个芯片行不行,团队搭了个原型系统做实验。 测试结果出来后很亮眼。这个系统能把彩色图像分解得清清楚楚,输出的信噪比损失特别小。用来处理大规模电影推荐数据集(像Netflix那种)的时候,计算精度跟先进数字处理器差不了多少。最让人惊讶的是能效比:面对大规模现实数据的推荐系统训练任务,它的速度比现在最好的数字芯片快了12倍!系统能效比更是提升了228倍! 这可是个颠覆性的成果。技术上说,这是第一次给非负矩阵分解任务提供了全模拟硬件加速方案。证明了模拟计算在处理现实世界复杂数据上很有潜力。应用前景方面,这种高能效芯片很可能先用到需要实时处理海量用户数据的推荐系统或者广告投放上。而且还能给那些耗电巨大的生成式人工智能模型训练提供更节能的选择。 产业战略角度看呢,这标志着我国科研人员在下一代智能计算基础架构上有了重要突破。自主可控的新型计算架构对国家来说太重要了!孙仲研究员表示这项研究给咱们指明了一条路,以后开发更多专用芯片都能参考这种思路。 北大团队这次的成功是基础研究和前沿技术交叉创新的一个好例子。它不光展示了提升能效比的技术路径,更体现了咱们面向国家战略需求、瞄准世界前沿搞原创的科研方向。以后随着研究的深入和产学研合作推进,这种颠覆性架构肯定能从实验室走向产业应用。为咱们在人工智能和集成电路这两大领域的融合发展注入新动力!争取在全球智能计算技术竞争中抢得先机!