今天,咱们国家有个科研团队弄出了个厉害的东西,就是高性能的模拟计算芯片,能效比直接跨了一个大台阶。 现在AI这东西渗透到各行各业,数据量爆涨,怎么高效、省能耗地处理这些海量数据,成了制约AI发展的大难题。 传统的数字计算架构,应付不了那种超级大的矩阵运算,越来越吃劲。所以,全球的前沿科技竞争,就是要找那种突破性的新计算方式跟硬件基础。 最近,北京大学人工智能学院的孙仲老师带着团队搞出了大新闻。他们设计并造出了一个专门用来做“非负矩阵分解”的模拟计算芯片。这技术可厉害了,能从像用户行为记录、图片像素点还有生物基因序列这些复杂数据里头,自动挖出来隐藏的规律跟特点。 过去用CPU和GPU做这事,受限制太多了,又慢又费电。孙仲团队不走寻常路,改道去搞模拟计算。这跟数字计算不一样,人家直接拿物理定律(比如欧姆定律、基尔霍夫定律)在连续状态下干活,速度超快,还不怎么耗电。 这次他们做了个用阻变存储器阵列做的求解器。阻变存储器是种新型存储器,电阻可以调,正好适合把计算和存储合二为一。 这个电路设计很巧妙,用了电导补偿的原理。用最少的元器件,就把最难的矩阵求逆这一步搞定了。这个设计让芯片在面积跟能耗上都省了不少。 他们还搭了个平台做测试。结果挺带劲:在图像压缩这块,质量跟电脑算出来的一样好,还能省掉50%的存储空间。在推荐系统上表现也不差。拿那个MovieLens 100k数据集来说比现在的数字硬件快212倍,能效比还能猛冲到4.6万倍。就是那种超大的数据集也能应付过去。 这说明算法跟硬件配合起来很管用。以后这种高效又省电的芯片有望在数据中心、边缘计算这些地方发挥大作用。 这就是北京大学孙仲团队做的模拟计算芯片领域的一个重要突破,咱们国家的科研人员在这方面真是下了功夫。这次成果不仅帮咱们找到了突破算力瓶颈的新路子,还为咱们以后发展自己的下一代技术攒下了经验。 这可是科技自立自强的好例子啊。