[发明专利]一种基于忆阻器内存计算的CNN处理装置及其工作方法在审
申请号: | 201811193203.1 | 申请日: | 2018-10-14 |
公开(公告)号: | CN111048135A | 公开(公告)日: | 2020-04-21 |
发明(设计)人: | 马建国;刘鹏;周绍华 | 申请(专利权)人: | 天津大学青岛海洋技术研究院 |
主分类号: | G11C16/06 | 分类号: | G11C16/06;G06N3/063 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 266200 山东省青岛市鳌*** | 国省代码: | 山东;37 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 忆阻器 内存 计算 cnn 处理 装置 及其 工作 方法 | ||
一种基于忆阻器内存计算的CNN处理装置及其工作方法,属于非易失性存储器和神经网络领域,其将ReRAM的每个交叉开关矩阵分为内存和缓存,并添加ALU,在其每条位线通过传输门与下侧相邻位线相连,将要处理的输入数据存入内存,将卷积核的权重按列依次输入到字线上,将位线上的数据存入缓存中,累加该结果即可获得卷积的结果,从而获得卷积层输出,并通过ALU完成激励层和池化层计算,重复上述步骤至获得全连接层的输入并存入处理单元阵列内存的第一列,将每组权重依次输入内存中相应的字线并从位线获得输出结果。本发明能够提升CNN处理装置的内存容量,减小读取输入数据的开销,并提高运算的并行度,提高CNN处理的速度。
技术领域
本发明属于非易失性存储和神经网络领域,尤其涉及一种基于忆阻器内存计算的CNN处理装置及其工作方法。
背景技术
目前,卷积神经网络(Convolutional Neural Network,CNN)等神经网络是进行目标识别、图像检测与分割等任务时极为常见的手段,而且图像等输入数据通常都是非负值。但卷积神经网络的实现过程中包含了大量的运算,尤其是卷积运算,因此通过传统的CPU等并行度低的处理器实现CNN的时候,需要花费极高的时间和功耗代价,而通过GPU等并行度高的处理器实现CNN,因为其本身没有对CNN进行专门的设计,因此也会造成资源的利用效率较低。
近几年,出现了专用的神经网络处理器,用于对CNN等神经网络进行加速实现,其中通常包含了大量的向量运算模块、乘加运算模块或者卷积运算模块,用于实现大规模并行的乘加运算等,如专利《神经网络处理器和卷积神经网络处理器》、《基于计算阵列的神经网络处理器》和论文《A 1.9nJ/pixel Embedded Deep Neural Network Processor forHigh Speed Visual Attention in a Mobile Vision Recognition SoC》等。但上述处理器面临众多问题:大规模的并行运算模块占据了大量的资源,芯片面积较大,运行的时候功耗也很高;上述处理器中采用的都是SRAM一类的易失性存储器,功耗高,存储密度低,因此无法缓存更多的数据,而神经网络处理的数据量通常都极大,因此上述处理器通常都需要一个较大的外部存储器;而且通常上述处理器都是采用了传统的冯诺依曼结构,因此无法避免存储墙(memory-wall)的问题,从各级存储器中获取数据到运算模块中花费了较长的时间。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于天津大学青岛海洋技术研究院,未经天津大学青岛海洋技术研究院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811193203.1/2.html,转载请声明来源钻瓜专利网。