[发明专利]神经网络权重编码方法、计算装置及硬件系统有效
申请号: | 201780042640.0 | 申请日: | 2017-12-29 |
公开(公告)号: | CN109791626B | 公开(公告)日: | 2022-12-27 |
发明(设计)人: | 张悠慧;季宇;张优扬 | 申请(专利权)人: | 清华大学 |
主分类号: | G06N3/063 | 分类号: | G06N3/063 |
代理公司: | 北京睿邦知识产权代理事务所(普通合伙) 11481 | 代理人: | 徐丁峰 |
地址: | 100084*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 神经网络 权重 编码 方法 计算 装置 硬件 系统 | ||
一种用于神经网络的非拼接权重编码方法,包括:权重定点化步骤,将权重矩阵的每个矩阵元素转换为具有预定比特位数的第一数(S210);误差引入步骤,在所述第一数中引入具有预定标准差的噪声,获得第二数(S220);和训练步骤,对以第二数表示的权重矩阵进行训练,训练至收敛后,再将训练结果作为最终的权重矩阵写入对应表示一个矩阵元素的单个模拟电路器件中(S230),其中,通过单个模拟电路器件而非多个模拟电路器件的拼接来表示单个矩阵元素。根据所述用于神经网络的编码方法,可以在不影响效果的情况下,极大的降低资源的消耗,从而节省资源开销,以在有限资源的条件下布置规模巨大的神经网络。
技术领域
本发明总体地涉及神经网络技术领域,更具体地涉及用于神经网络的权重编码方法、计算装置以及硬件系统。
背景技术
随着摩尔定律逐渐失效,现有芯片工艺进步放缓,人们不得不面向新应用和新器件。近年来,神经网络(Neural Network,NN)计算取得了突破性进展,在图像识别、语言识别、自然语言处理等诸多领域均取得了很高的准确率,但神经网络需要海量计算资源,现有的通用处理器已经很难满足深度学习的计算需求,设计专用芯片已经成为了一个重要的发展方向。与此同时,忆阻器的出现为神经网络芯片设计提供了一种高效的解决方案,忆阻器具有高密度、非易失、低功耗、存算合一、易于3D等优点,在神经网络计算中可以利用其阻值可调的特点作为可编程权重,并利用其存算合一的优点作高速乘加器。
神经网络组成单元均为神经元,由大量神经元相互连接成网络。神经元之间的连接可以看作带权重的有向边,神经元的输出会被神经元之间的连接所加权,然后传递给所连到的神经元,而每个神经元接收到的所有输入会被累加起来进行进一步处理,产生神经元的输出。神经网络的建模通常以若干神经元为一层,层与层之间相互连接来构建,图1所示的是一种链状的神经网络,图中每一个圆表示一个神经元,每一个箭头表示神经元之间的连接,每个连接均有权重,实际神经网络的结构不限于链状的网络结构。
神经网络的核心计算是矩阵向量乘操作,包含n个神经元的层Ln产生的输出可以用长度为n的向量Vn表示,与包含m个神经元的层Lm全相联,连接权重可以表示成矩阵Mn×m,矩阵大小为n行m列,每个矩阵元素表示一个连接的权重。则加权之后输入到Lm的向量为Mn×mVn,这样的矩阵向量乘法运算是神经网络最核心的计算。
由于矩阵向量乘计算量非常大,在现有的通用处理器上进行大量的矩阵乘运算需要耗费大量的时间,因此神经网络加速芯片也都是以加速矩阵乘法运算为主要的设计目标。忆阻器阵列恰好能胜任上述工作。首先V为一组输入电压,电压与忆阻器电导G相乘并叠加输出电流,输出电流与接地电阻Rs相乘得到输出电压V’,整个过程在模拟电路下实现,具有速度快,面积小的优点。
然而使用基于忆阻器的芯片计算也存在精度低、扰动大,数模/模数转换开销大,矩阵规模受限等不足。而且虽然忆阻器可以高效地进行矩阵向量乘法运算,但是由于忆阻器芯片矩阵向量乘是在模拟电路中实现,所以不可避免的带来噪声和扰动,所以相对于神经网络,忆阻器的计算结果是不准确的。
由于忆阻器的工艺限制,使用忆阻器表示权重会有一定的误差。如图3所示,不同级的权重会有一定的重叠。为了避免重叠,现有方法一般是使用若干个低精度的忆阻器拼接来表示一个高精度权重,每个忆阻器精度都很低的情况下,可以认为权重数据是准确的。以用2个2比特忆阻器表示4比特权重为例,用一个2比特忆阻器来表示权重低2位,另一个表示高2位。
现有的ISAAC技术首先用浮点数训练一个神经网络,然后将权重数据“写入”忆阻器。ISAAC是用4个2比特忆阻器器件来表示一个8比特的权重,这样可以利用更多的资源来提高矩阵运算精度。
ISAAC使用拼接的方法来表示权重,效率比较低,需要很多的资源,比如表示一个1个权重,就需要4个忆阻器器件。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学,未经清华大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201780042640.0/2.html,转载请声明来源钻瓜专利网。