[发明专利]一种反卷积神经网络的硬件加速方法、装置和电子设备有效
申请号: | 201880083893.7 | 申请日: | 2018-12-13 |
公开(公告)号: | CN111542839B | 公开(公告)日: | 2023-04-04 |
发明(设计)人: | 刘双龙 | 申请(专利权)人: | 深圳鲲云信息科技有限公司 |
主分类号: | G06N3/0475 | 分类号: | G06N3/0475;G06N3/063 |
代理公司: | 深圳智汇远见知识产权代理有限公司 44481 | 代理人: | 郑江燕 |
地址: | 518000 广东省深圳市福田区福*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 卷积 神经网络 硬件加速 方法 装置 电子设备 | ||
1.一种反卷积神经网络的硬件加速方法,其特征在于,包括:
S1、获取当前网络层的输入数据,所述输入数据为存储在第一存储器中的上一网络层的计算结果;
S2、将所述输入数据在当前网络层中进行反卷积计算,得到当前计算结果,将所述当前计算结果输入第二存储器,所述当前网络层包括该层的权重;
S3、基于所述第二存储器中的当前计算结果,获取下一网络层的输入数据;
S4、将所述下一网络层的输入数据在所述下一网络层中进行反卷积计算,得到当前计算结果,将所述当前计算结果输入第一存储器,所述下一网络层包括该层的权重;
S5、重复执行步骤S1、S2、S3、S4,直到所述反卷积神经网络的最后一层并输出结果。
2.如权利要求1所述方法,其特征在于,所述输入数据包括存储于片外存储器上的初始数据,所述获取当前网络层的输入数据,包括:
将所述存储于片外存储器上的初始数据读取到所述第一存储器中。
3.如权利要求2所述方法,其特征在于,所述将所述输入数据在当前网络层中进行反卷积计算,得到当前计算结果,将所述当前计算结果输入第二存储器,所述当前网络层包括该层的权重,包括:
获取当前网络层的权重,并输入当前网络层;
将所述输入数据与所述当前网络层的权重进行矩阵运算,得到运算结果;
将所述运算结果输入所述第二存储器。
4.如权利要求3所述方法,其特征在于,所述获取当前网络层的权重,并输入当前网络层,包括:
将存储于片外存储器上的当前网络层的权重矩阵读取到所述当前网络层。
5.如权利要求4所述方法,其特征在于,所述将所述输入数据与所述当前网络层的权重进行矩阵运算,得到运算结果,包括:
将所述输入数据和所述当前网络层的权重矩阵进行相乘并累加,得到计算结果。
6.如权利要求5所述方法,其特征在于,所述基于所述第二存储器中的当前计算结果,获取下一网络层的输入数据,包括:
所述下一网络层读取所述输入第二存储器中的运算结果作为输入数据。
7.如权利要求6所述方法,其特征在于,所述第一存储器、第二存储器为现场可编程门阵列的片上存储器。
8.一种反卷积神经网络的硬件加速装置,其特征在于,包括:
第一获取模块,用于获取当前网络层的输入数据,所述输入数据为存储在第一存储器中的上一网络层的计算结果;
第一计算模块,用于将所述输入数据在当前网络层中进行反卷积计算,得到当前计算结果,将所述当前计算结果输入第二存储器,所述当前网络层包括该层的权重;
第二获取模块,用于基于所述第二存储器中的当前计算结果,获取下一网络层的输入数据;
第二计算模块,用于将所述下一网络层的输入数据在所述下一网络层中进行反卷积计算,得到当前计算结果,将所述当前计算结果输入第一存储器,所述下一网络层包括该层的权重;
重复模块,用于重复调用上述各模块,直到所述反卷积神经网络的最后一层并输出结果。
9.一种电子设备,其特征在于,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述的反卷积神经网络的硬件加速方法中的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的反卷积神经网络的硬件加速方法中的步骤。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳鲲云信息科技有限公司,未经深圳鲲云信息科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201880083893.7/1.html,转载请声明来源钻瓜专利网。