[发明专利]一种基于大脑共识主动性的深度神经网络压缩方法在审
申请号: | 201910885350.3 | 申请日: | 2019-09-19 |
公开(公告)号: | CN110689113A | 公开(公告)日: | 2020-01-14 |
发明(设计)人: | 申世博;李荣鹏;张宏纲;赵志峰 | 申请(专利权)人: | 浙江大学 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08 |
代理公司: | 33200 杭州求是专利事务所有限公司 | 代理人: | 邱启旺 |
地址: | 310058 浙江*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明提出了一种基于大脑共识主动性的深度神经网络压缩方法,该方法在每一次神经网络训练的前向过程中,在卷积层中逐层地筛选部分重要的通道,而将其它通道的激活值置零。这样,在误差的反向传播过程中,生成这些不重要的通道的卷积核的梯度值为零,因此不会被更新或训练。同时,将通道效用的更新过程嵌入于误差的反向传播当中,并且通过“共识主动”方法来增强它们之间的联系。每一次网络的迭代更新,都是有选择地“训练”了那些有效通道对应的卷积核,因此,当训练结束的时候,保留具有高通道效用的通道,从而实现通道剪枝和深度神经网络压缩。该方法大大简化了现有深度神经网络压缩方法的一般流程,具有很高的效率。 | ||
搜索关键词: | 神经网络 反向传播 卷积核 压缩 神经网络训练 迭代更新 更新过程 一次网络 有效通道 剪枝 卷积 前向 置零 嵌入 大脑 主动性 激活 筛选 保留 更新 | ||
【主权项】:
1.一种基于大脑共识主动性的深度神经网络压缩方法,其特征在于,具体包括以下步骤:/n(1)在深度神经网络训练的每一次前向过程中,对于每一层的通道,按照初始化通道效用值
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江大学,未经浙江大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910885350.3/,转载请声明来源钻瓜专利网。
- 上一篇:数据处理的方法及装置
- 下一篇:网络节点处理方法、装置、存储介质及电子设备