[发明专利]一种基于深度压缩的复数卷积神经网络压缩方法在审

专利信息
申请号: 201910136000.7 申请日: 2019-02-25
公开(公告)号: CN109886406A 公开(公告)日: 2019-06-14
发明(设计)人: 伍家松;任虹珊;孔佑勇;杨淳沨;章品正;姜龙玉;陈阳;舒华忠 申请(专利权)人: 东南大学
主分类号: G06N3/08 分类号: G06N3/08;G06K9/62;G06N3/04
代理公司: 南京苏高专利商标事务所(普通合伙) 32204 代理人: 向文
地址: 211100 江*** 国省代码: 江苏;32
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明公开了一种基于深度压缩算法的复数卷积神经网络压缩的方法,首先通过正常的网络训练学习网络的连通性;然后,对训练过的网络参数进行修剪,将复数参数的模低于一个阈值的连接修剪掉;接着,将修剪过后的稀疏网络进行量化,进一步压缩网络;最后,利用哈夫曼编码对复数参数的实部和虚部进行编码,得到最终的压缩网络。本发明方法利用卷积神经网络中过多的冗余参数,删减掉不重要的连接,并进一步通过量化和哈夫曼编码压缩网络,在很大程度上减少了网络的参数,并且只有很小的精度损失,达到了压缩复数卷积神经网络的目的,解决了复数卷积神经网络由于巨大的参数量无法部署在嵌入式设备上的问题。
搜索关键词: 复数卷积 神经网络 压缩 修剪 哈夫曼编码 复数参数 深度压缩 网络 量化 卷积神经网络 嵌入式设备 精度损失 冗余参数 网络参数 网络训练 稀疏网络 连通性 实部 算法 虚部 部署 学习
【主权项】:
1.一种基于深度压缩的复数卷积神经网络压缩方法,其特征在于:包括以下步骤:1)网络修剪:1.1)训练原始复数卷积神经网络,获得其连通性,得到其原始权值;1.2)修剪小权值连接:首先设定一个阈值,对于复数网络,用复数权值的模与设定的阈值作比较,将权值低于给定阈值的连接都从网络中移除,即将复数权值的实部与虚部均设置为0,得到修剪后的权值;1.3)重新训练网络来学习剩下稀疏网络的最终权值;2)网络量化:对步骤1得到的修剪权值进行量化聚类,具体如下:2.1)设置一个聚类数目K,并初始化簇的质心;2.2)采用二维K均值聚类算法对每一层的权值进行聚类;2.3)重新训练网络来学习量化后的网络的最终权值;3)对量化过后的复数权值的实部和虚部分别进行Huffman编码,得到最终的压缩网络。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于东南大学,未经东南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201910136000.7/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top