[发明专利]一种降低基于ReRAM的CNN加速器功耗的模型剪枝方法有效
申请号: | 202110528672.X | 申请日: | 2021-05-14 |
公开(公告)号: | CN113392969B | 公开(公告)日: | 2022-05-03 |
发明(设计)人: | 孙严 | 申请(专利权)人: | 宁波物栖科技有限公司 |
主分类号: | G06N3/08 | 分类号: | G06N3/08;G06N3/04 |
代理公司: | 北京和信华成知识产权代理事务所(普通合伙) 11390 | 代理人: | 胡剑辉 |
地址: | 315000 浙江省宁波市高新区光华路*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 降低 基于 reram cnn 加速器 功耗 模型 剪枝 方法 | ||
1.一种降低基于ReRAM的CNN加速器功耗的模型剪枝方法,其特征在于,包括以下步骤:
步骤100、确定CNN卷积神经网络的层数,并设定对CNN卷积神经网络层的剪枝顺序;
步骤200、以ReRAM加速器的阵列尺寸为粒度按序依次对每层的卷积神经网络进行切分稀疏,得到多个网络块并获取每个所述网络块对应的权重;
步骤300、根据每个所述网络块对应的权重分别获取每个所述网络块的剪枝策略,每个所述剪枝策略确定对所述网络块的剪枝数量和剪枝位置,以所述网络块的性能约束为优化条件筛选所述剪枝策略以进行比特剪枝;
步骤400、冻结已完成剪枝的剪枝方案,并按序移动至下一层进行神经网络的剪枝操作。
2.根据权利要求1所述的一种降低基于ReRAM的CNN加速器功耗的模型剪枝方法,其特征在于,在步骤100中,所述CNN卷积神经网络的层数至少为一层,且所述CNN卷积神经网络层的模型剪枝顺序自定义设定。
3.根据权利要求1所述的一种降低基于ReRAM的CNN加速器功耗的模型剪枝方法,其特征在于,确定每层卷积神经网络的剪枝策略的具体实现方式为:
基于所述ReRAM加速器的阵列尺寸对神经网络层的权重进行切分以得到多个网络块,切分后每个所述网络块的大小为ReRAM阵列的大小;
基于每个所述网络块的权重确定对应每个所述网络块的所述剪枝策略的数量,每个所述剪枝策略作为模拟器模拟所述网络块在每次剪枝操作下的二次权重集合。
4.根据权利要求3所述的一种降低基于ReRAM的CNN加速器功耗的模型剪枝方法,其特征在于:所述剪枝策略对应的模拟器以每个所述网络块对应二次权重集合的性能约束为优化条件,利用强化学习算法计算每个所述模拟器的模型精度和功耗开销,且根据所述模型精度和功耗开销的组合结果调整并确定每个所述网络块对应唯一的所述剪枝策略。
5.根据权利要求3所述的一种降低基于ReRAM的CNN加速器功耗的模型剪枝方法,其特征在于:每一层的神经网络层的剪枝策略的个数等于该层切分的所述网络块的个数,即每个网络块对应一个独立的剪枝策略。
6.根据权利要求4所述的一种降低基于ReRAM的CNN加速器功耗的模型剪枝方法,其特征在于,在步骤300中,每个网络块对应的权重的比特精度为m,每个所述网络块对应的所述剪枝策略数量为2m;
每个所述剪枝策略模拟所述网络块在每次剪枝操作下的比特数据的剪枝数量p和剪枝位置,每次剪枝操作后的二次权重集合内元素的数量为2m-p;
计算经过剪枝操作后的每个所述网络块的模型精度和功耗开销,且以功耗开销作为约束条件筛选所述模型精度符合预设范围的所述剪枝策略。
7.根据权利要求6所述的一种降低基于ReRAM的CNN加速器功耗的模型剪枝方法,其特征在于,所述强化学习算法先初次筛选出功耗开销符合约束条件的多个剪枝策略,再从初次筛选的多个剪枝策略二次决策出所述模型精度符合预设范围的剪枝策略;
所述强化学习算法通过深度学习更新符合二次决策的剪枝策略,以使得该所述剪枝策略符合功耗开销最低和模型精度最高的性能;
将更新后的剪枝策略作为单个所述网络块的剪枝方案。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于宁波物栖科技有限公司,未经宁波物栖科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110528672.X/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种工业生产用机器人
- 下一篇:一种管束结构流致振动的非接触位移测试方法