[发明专利]一种基于{-1,+1}编码的神经网络模型压缩与加速方法在审
申请号: | 201810866365.0 | 申请日: | 2018-08-01 |
公开(公告)号: | CN109190759A | 公开(公告)日: | 2019-01-11 |
发明(设计)人: | 孙其功;焦李成;杨康;尚凡华;李秀芳;侯彪;杨淑媛;李玲玲;郭雨薇;唐旭;冯志玺 | 申请(专利权)人: | 西安电子科技大学 |
主分类号: | G06N3/08 | 分类号: | G06N3/08 |
代理公司: | 西安通大专利代理有限责任公司 61200 | 代理人: | 高博 |
地址: | 710065 陕*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种基于{‑1,+1}分解的神经网络压缩与加速方法,主要解决现有技术中无法将深度神经网络模型很好的用到手机与小型嵌入式设备的问题先构建神经网络模型,然后确定{‑1,1编码位数};再训练神经网络模型参数并量化;再对量化后的模型参数进行重新{‑1,1}编码;再对神经网络模型添加编码层;最后将神经网络内部矩阵或向量乘法操作替换成若干个二值位运算操作。本发明具有对神经网络参数与激活值进行重新{‑1,1}编码,降低模型参数的储存空间,实现模型计算加速的优点。 | ||
搜索关键词: | 神经网络模型 模型参数 神经网络 小型嵌入式设备 量化 神经网络参数 训练神经网络 矩阵 编码位数 储存空间 模型计算 向量乘法 压缩 编码层 位运算 构建 手机 替换 激活 分解 | ||
【主权项】:
1.一种基于{‑1,+1}编码的神经网络模型压缩与加速方法,其特征在于,首先构建神经网络模型;然后根据具体任务要求的精度对[‑1,1]进行分段处理,根据分段数确定对模型参数与激活值重新进行{‑1,1}编码的位数M;对神经网络模型进行初始化并对模型参数进行量化;对神经网络模型进行训练并在训练中根据{‑1,1}编码的位数M对模型参数与激活值使用线性量化公式进行量化;对训练完成的量化神经网络模型参数进行M位数的{‑1,1}编码;在神经网络模型的每个激活层后面加上一个用于对激活值进行重新M位{‑1,1}编码的编码层;将神经网络内部矩阵或向量乘法操作替换成若干个二值位运算,从而实现模型压缩与加速。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学,未经西安电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201810866365.0/,转载请声明来源钻瓜专利网。