[发明专利]基于块项张量分解的深度神经网络压缩方法有效
申请号: | 201711319853.1 | 申请日: | 2017-12-12 |
公开(公告)号: | CN107944556B | 公开(公告)日: | 2020-09-08 |
发明(设计)人: | 徐增林;李广西;叶锦棉;陈迪 | 申请(专利权)人: | 电子科技大学 |
主分类号: | G06N3/08 | 分类号: | G06N3/08;G06N3/04 |
代理公司: | 成都虹盛汇泉专利代理有限公司 51268 | 代理人: | 王伟 |
地址: | 611731 四川省成*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 张量 分解 深度 神经网络 压缩 方法 | ||
本发明公开了一种基于块项张量分解的深度神经网络压缩方法。其包括获取深度神经网络框架,将权重矩阵W和输入向量x分别转化为高阶张量
技术领域
本发明属于深度神经网络技术领域,尤其涉及一种基于块项张量分解的深度神经网络压缩方法。
背景技术
近年来,以深度神经网络为代表的深度学习在图像分类、语音识别、自然语言处理等人工智能领域取得了比传统方法显著提高的效果,进而吸引了学术界、工业界和政府的广泛关注。然而深度神经网络结构复杂、层数较多、参数量巨大,训练好的模型往往占用很大的存储空间,难以移植到小型终端上;并且时间复杂性也很高,即使在高性能图形处理器上训练也常常需要数天,这些都迫使我们需要压缩深度神经网络。
由于深度神经网络的权重实质上就是一些高维矩阵,因此很自然的一种压缩方法就是矩阵分解,但矩阵分解的压缩能力太低,最多只能压缩数十倍。所以最近兴起了利用张量分解压缩的办法,比如“张量火车”分解方法能够把VGG网络中单层全连接层压缩成千上万倍。然而由于张量火车分解方法本身具有“不对称”和“线性表达能力”的特性,导致了压缩后的深度神经网络难以获得更高分类精度。
发明内容
本发明的发明目的是:为了解决现有技术中存在的以上问题,本发明提出了一种基于块项张量分解的深度神经网络压缩方法,以期能够在保持精度的同时获得更高的参数量压缩比。
本发明的技术方案是:一种基于块项张量分解的深度神经网络压缩方法,包括以下步骤:
A、获取深度神经网络框架;
B、将深度神经网络的全连接层中的权重矩阵W和输入向量x分别转化为高阶张量
C、对步骤B中的高阶张量
D、根据步骤B中的高阶张量
E、采用后向传播算法对步骤D中替换后的深度神经网络进行训练。
进一步地,所述步骤B中将深度神经网络的全连接层中的权重矩阵W转化为高阶张量
进一步地,所述步骤B中将深度神经网络的全连接层中的输入向量x转化为高阶张量
进一步地,所述步骤C对步骤B中的高阶张量
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于电子科技大学,未经电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711319853.1/2.html,转载请声明来源钻瓜专利网。
- 上一篇:沙发(ZY布艺‑708)
- 下一篇:一种骚扰电话的识别方法