[发明专利]计算神经网络压缩最佳定点位数的方法、存储介质和装置有效
申请号: | 201810992672.3 | 申请日: | 2018-08-29 |
公开(公告)号: | CN109359728B | 公开(公告)日: | 2021-04-09 |
发明(设计)人: | 杨志明;陈巍巍;陈腊梅 | 申请(专利权)人: | 深思考人工智能机器人科技(北京)有限公司;深思考人工智能科技(上海)有限公司 |
主分类号: | G06N3/063 | 分类号: | G06N3/063;G06N3/04;G06N3/08 |
代理公司: | 北京德琦知识产权代理有限公司 11018 | 代理人: | 谢安昆;宋志强 |
地址: | 100085 北京市海淀区信息*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 计算 神经网络 压缩 最佳 定点 位数 方法 存储 介质 装置 | ||
1.一种计算神经网络压缩最佳定点位数的方法,其特征在于,所述方法在嵌入式系统中实现,所述方法应用于定点化深度学习算法中,所述定点化深度学习算法包括N个卷积层,所述方法用于为卷积层n的卷积层参数确定定点化处理的预设进制位数FPn,n=1,2…N,包括:
步骤11:设置FPn为初始值;
步骤12:按照当前FPn,将所述卷积层参数进行定点化处理,以构建当前定点化深度学习算法;所述卷积层参数至少包括输入矩阵数据、输出矩阵数据、卷积层权值、偏差中的任一参数;
将L个样本数据对中的样本输入值逐个输入所述当前定点化深度学习算法,其中,一样本数据对包括样本输入值Xl、以及所述Xl的标准输出Yl,记录所述当前定点化深度学习算法的输出Y’l,l=1,2…L;
步骤13:通过比较Yl与Y’l,判断所述Y’l是否符合预设要求,如果是,则记录当前FPn为所述定点化深度学习算法的定点位数最终值,结束本流程,否则执行步骤14;
步骤14:调整所述FPn数值,返回步骤12;
在所述步骤11之后以及步骤12之前还包括:
步骤21:按照当前FPn,将所述卷积层参数进行定点化处理,以构建当前定点化深度学习算法;
将L个样本数据对中的样本输入值逐个输入所述当前定点化深度学习算法,其中,一样本数据对包括样本输入值Xl、以及所述Xl的标准输出Yl,记录所述当前定点化深度学习算法的输出Y’l,l=1,2…L;
步骤22:通过比较Yl与Y’l,判断所述Y’l是否符合预设要求,如果是,则记录当前FPn为所述定点化深度学习算法的定点位数最终值,结束本流程,否则执行步骤23;
步骤23:将L个样本数据对中的样本输入值逐个输入未定点化深度学习算法,记录数据集An={Sni|l=1,2…L,i≥1},其中,Sni为任一所述卷积层参数,n=1,2…N;
步骤24:计算所述N个卷积层每一层的离散化指数Dn,所述Dn用于指示数据集An的离散程度,取前预设个数最大Dn所对应的卷积层为短板层;
步骤25:调整所述短板层的FPn数值,执行步骤12;
所述步骤14中调整所述FPn数值包括:调整所述短板层的FPn数值。
2.根据权利要求1所述的方法,其特征在于,令所述定点化深度学习算法的最小预设进制位数为bw1;所述定点化深度学习算法的最大预设进制位数为bw2;
则所述步骤11还包括:所述初始值为bw1;
所述步骤14还包括:FPn=取整((FPn+bw2)/2)。
3.根据权利要求1所述的方法,其特征在于,在所述步骤11之前还包括:
步骤31:将L个样本数据对中的样本输入值逐个输入未定点化深度学习算法,记录数据集An={Sni|l=1,2…L,i≥1},其中,Sni为任一所述卷积层参数,n=1,2…N;
步骤32:计算所述N个卷积层每一层的离散化指数Dn,所述Dn用于指示数据集An的离散程度;
所述步骤11中设置FPn为初始值包括:根据所述Dn设置FPn的初始值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深思考人工智能机器人科技(北京)有限公司;深思考人工智能科技(上海)有限公司,未经深思考人工智能机器人科技(北京)有限公司;深思考人工智能科技(上海)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810992672.3/1.html,转载请声明来源钻瓜专利网。