[发明专利]一种基于winograd卷积运算的卷积神经网络数据处理方法及装置有效
申请号: | 201910203310.6 | 申请日: | 2019-03-18 |
公开(公告)号: | CN110097172B | 公开(公告)日: | 2021-10-29 |
发明(设计)人: | 韩银和;闵丰;许浩博;王颖 | 申请(专利权)人: | 中国科学院计算技术研究所 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/063 |
代理公司: | 北京泛华伟业知识产权代理有限公司 11280 | 代理人: | 王勇;李科 |
地址: | 100190 北*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 winograd 卷积 运算 神经网络 数据处理 方法 装置 | ||
本发明提供一种卷积神经网络数据处理方法以简化卷积操作,所述方法包括:1)根据卷积神经网络模型的权值g以及转换矩阵G,基于GgGT计算针对权值的中间矩阵U;2)对所述针对权值的中间矩阵U进行压缩,以获得用于指示U中有效元素的数值的压缩转换权值矩阵Uz、以及用于指示U中有效元素的坐标的压缩坐标编码S;3)根据所述压缩坐标编码S,计算针对中间矩阵V=[BTdB]的压缩结果以作为压缩转换特征图Vz,其中d为卷积神经网络的输入特征图,B是转换矩阵;4)对所述压缩转换权值矩阵Uz和所述压缩转换特征图Vz执行点乘操作,得到点乘矩阵Mz;5)根据所述点乘矩阵Mz、转换矩阵A,基于ATMzA计算针对所述输入特征图d的卷积运算结果F。
技术领域
本发明涉及针对卷积运算的加速,尤其涉及神经网络中针对基于win ograd卷积运算的加速方案。
背景技术
深度学习技术在近几年得到了飞速的发展,在解决高级抽象认知问题上,例如图像识别、语音识别、自然语言理解、天气预测、基因表达、内容推荐和智能机器人等领域得到了广泛应用并具有出色的表现,因此成为了学术界和工业界的研究热点。深度神经网络是人工智能领域具有最高发展水平的感知模型之一,该类网络通过建立模型模拟人类大脑的神经连接结构,通过多个变换阶段分层对数据特征进行描述,为图像、视频和音频等大规模数据处理任务带来了突破性进展。该模型结构是一种运算模型,由大量节点通过网状互连结构构成,这些节点被称为神经元。每两个节点间连接强度都代表通过该连接信号在两个节点间的加权值,被称为权重,与人类神经网络中的记忆相对应。
神经网络处理器是用于实现深度神经网络的专用处理器,针对神经网络处理器的研究目的是将神经网络推向更广泛应用如智能穿戴、智能机器人、自动驾驶以及模式识别等领域。其神经网络的计算过程可分为卷积、激活、池化等步骤。然而,卷积运算时的数据重复性操作任务极大,卷积运算量与卷积窗口移动次数成正比,并且对于绝大多数应用而言,需要执行卷积运算的输入特征图、用于实现卷积运算的卷积核中为“0”的元素非常多,本领域中称作“稀疏性”非常大,这使得传统的卷积运算中存在许多冗余的操作。对此,一些研究者们提出了基于winograd的卷积运算方式,该方式通过对输入特征图与权值进行特定的矩阵转换,以完成等效的卷积运算任务,可大量减少卷积运算过程的乘法运算。
然而,这并不意味着基于winograd的卷积运算方式是完美的,传统的winograd仍存在进一步利用稀疏性降低运算量的空间。并且,目前尚不存在一种针对稀疏winograd卷积运算的专用处理器。
发明内容
因此,本发明的目的在于克服上述现有技术的缺陷,提供一种基于winograd卷积运算的卷积神经网络数据处理方法,包括:
1)根据卷积神经网络模型的权值g以及转换矩阵G,基于GgGT计算针对权值的中间矩阵U;
2)对所述针对权值的中间矩阵U进行压缩,以获得用于指示U中有效元素的数值的压缩转换权值矩阵Uz、以及用于指示U中有效元素的坐标的压缩坐标编码S;
3)根据所述压缩坐标编码S,计算针对中间矩阵V=[BTdB]的压缩结果以作为压缩转换特征图Vz,其中d为卷积神经网络的输入特征图,B是转换矩阵;
4)对所述压缩转换权值矩阵Uz和所述压缩转换特征图Vz执行点乘操作,得到点乘矩阵Mz;
5)根据所述点乘矩阵Mz、转换矩阵A,基于ATMzA计算针对所述输入特征图d的卷积运算结果F。
优选地,根据所述方法,其中所述有效元素为非零元素。
优选地,根据所述方法,其中步骤1)还包括:对计算得到的所述中间矩阵U执行剪枝处理。
优选地,根据所述方法,其中步骤3)包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院计算技术研究所,未经中国科学院计算技术研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910203310.6/2.html,转载请声明来源钻瓜专利网。