[发明专利]深度卷积神经网络的压缩方法及系统在审

专利信息
申请号: 202010440475.8 申请日: 2020-05-22
公开(公告)号: CN111612143A 公开(公告)日: 2020-09-01
发明(设计)人: 胡卫明;刘雨帆;阮晓峰;李兵;李扬曦 申请(专利权)人: 中国科学院自动化研究所
主分类号: G06N3/08 分类号: G06N3/08;G06N3/04
代理公司: 北京市恒有知识产权代理事务所(普通合伙) 11576 代理人: 郭文浩;尹文会
地址: 100190 *** 国省代码: 北京;11
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 深度 卷积 神经网络 压缩 方法 系统
【权利要求书】:

1.一种深度卷积神经网络的压缩方法,其特征在于,所述压缩方法包括:

根据滤波器重要性选择方式和/或模型压缩率,确定待压缩深度卷积神经网络中不重要的滤波器;

对不重要的滤波器施加渐进式稀疏约束,作为正则项加入到网络训练的损失函数中,得到优化损失函数;

根据正则项,采用阈值迭代算法及反向传播算法联合求解,得到待压缩深度卷积神经网络的更新参数;

基于所述优化损失函数及更新参数,获得具有滤波器稀疏形式的卷积神经网络模型;

利用结构化剪枝算法,对所述具有滤波器稀疏形式的卷积神经网络模型进行剪枝,得到压缩后的卷积神经网络模型。

2.根据权利要求1所述的深度卷积神经网络的压缩方法,其特征在于,所述根据滤波器重要性选择方式和/或模型压缩率,确定待压缩深度卷积神经网络中不重要的滤波器,具体包括:

根据卷积层滤波器权值的L2范数值,确定待压缩深度卷积神经网络中不重要的滤波器。

3.根据权利要求2所述的深度卷积神经网络的压缩方法,其特征在于,所述根据卷积层滤波器权值的L2范数值,确定待压缩深度卷积神经网络中不重要的滤波器,具体包括:

根据以下公式,计算滤波器权值的L2范数值:

其中,表示卷积层l第j个滤波器L2范数值,表示卷积层l第j个滤波器权值,||·||2表示L2范数算子;

将卷积层l中所有滤波器L2范数值组成一重要性得分向量IS(l)

其中,IS(l)为卷积层l滤波器重要性得分向量,c(l)为卷积层滤波器数目;

通过对重要性得分向量进行排序,确定重要性得分最小的sr*c(l)个滤波器为不重要的滤波器,构成不重要性滤波器参数集Θs,其中,sr为卷积层稀疏率。

4.根据权利要求1所述的深度卷积神经网络的压缩方法,其特征在于,根据以下公式,得到优化损失函数:

s(l)=sr*c(l)

其中,Loss表示优化损失函数,表示全部训练数据集,x,y为成对训练数据,且l(·)表示标准损失函数,表示网络前向函数,Θ表示待压缩深度卷积神经网络的参数集;Θs表示不重要性滤波器的参数集,表示正则项函数,L表示卷积神经网络模型卷积层数目,W(l)表示卷积层l中滤波器权值,表示卷积层l第j个滤波器权值,||·||2表示L2范数算子,||·||2,1表示矩阵的L21范数算子,S(l)表示卷积层l被选择稀疏的滤波器数目,sr为卷积层稀疏率;λ表示渐进式的稀疏惩罚因子,能够通过阶梯式函数、线性式函数、指数式函数和正弦式函数中任意一者增长方式确定。

5.根据权利要求4所述的深度卷积神经网络的压缩方法,其特征在于,通过正弦式函数增长方式确定渐进式的稀疏惩罚因子λ,具体包括:

其中,λ(t)为迭代次数t时的惩罚因子,λmax为惩罚因子的幅值,T为总迭代次数。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院自动化研究所,未经中国科学院自动化研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202010440475.8/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top