中国科研团队弄出了一款特别牛的模拟计算芯片。这个芯片用了非负矩阵分解(nmf)算法,

最近,我国科研团队弄出了一款特别牛的模拟计算芯片。这个芯片用了非负矩阵分解(NMF)算法,效果特别好,把能效比提升了超过228倍。现在人工智能发展那么快,算力需求增长得厉害,所以底层计算硬件的创新成了推动产业进步的关键。北京大学人工智能学院孙仲研究员团队把目光投向了NMF,这个算法能从高维数据里提取潜在特征和结构。不过传统的数字计算芯片运行这个算法能耗大、速度慢。孙仲团队就换了个思路,把模拟计算和RRAM技术结合起来。 这个芯片利用欧姆定律和基尔霍夫定律来处理信号,和传统二进制运算不一样,效率很高。孙仲团队利用RRAM器件的电导特性来存储数据,设计了一种可重构紧凑型广义逆电路。这个电路通过巧妙补偿电导,实现了用最少的硬件单元完成复杂矩阵求逆运算。他们就这么把最耗能的步骤优化了。结果是芯片面积变小了,能耗降低了。 测试结果挺让人惊喜的:图像压缩任务里节省了约50%的存储空间;推荐系统预测也没问题;最牛的是处理Netflix级别的大数据集时比现在的芯片快12倍,能效比更是超过228倍。这可不是简单的指标超越啊!这说明RRAM模拟架构可行,能帮我们突破“冯·诺依曼瓶颈”。这也能解决AI的“能耗之痛”,让计算基础设施更绿色可持续。 孙仲研究员说这个研究能让实时推荐系统更快响应,高清图像和视频处理更流畅,基因测序分析也能加速。北京大学这次发布的成果是科研人员坚持自主创新的体现。它不仅仅是实验室内的成绩,更是对未来计算架构的探索。中国科研团队正在一步一步打造未来数字时代的“中国底座”。