[发明专利]一种多机制混合的递归神经网络模型压缩方法在审
申请号: | 201710151828.0 | 申请日: | 2017-03-10 |
公开(公告)号: | CN107644252A | 公开(公告)日: | 2018-01-30 |
发明(设计)人: | 王中风;王智生;林军 | 申请(专利权)人: | 南京大学 |
主分类号: | G06N3/08 | 分类号: | G06N3/08 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 210023 江苏省南京市栖*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 机制 混合 递归 神经网络 模型 压缩 方法 | ||
技术领域
本发明涉及计算机及电子信息技术领域,特别是一种多机制混合的递归神经网络模型压缩方法。
背景技术
递归神经网络有着强大的非线性拟合能力,其天然的递归结构十分适用于建模序列数据,如文本、语音和视频等。目前,递归神经网络模型在自然语言处理领域,尤其是在语音识别和机器翻译上已经取得了接近甚至超过人类的效果或准确率;通过结合增强学习,递归神经网络在机器人自适应控制和学习领域也有广泛的应用前景。这些技术是实现智能人机交互所必须的,但是在嵌入式设备上运行递归神经网络模型存在着诸多问题。一方面,递归神经网络模型需要存储大量的参数,而且计算量巨大;另一方面,嵌入式系统所能提供的存储资源和计算能力十分有限,无法满足模型存储和计算的需求,实时性和功耗上也面临着诸多挑战。因此,有必要通过一些模型压缩技术减少递归神经网络的模型参数以减少模型的存储需求,并降低模型的计算复杂度。
现有的模型压缩技术可以粗略归为两大类,一类不减少模型参数个数,但可以减少参数存储所需要的空间。如通过剪枝使参数矩阵变稀疏,而后可通过特殊的格式存储稀疏参数矩阵;也可采用基于量化的网络训练算法,减少存储每个参数需要的比特。另一类是通过对参数矩阵施加特殊的约束减少参数个数或是减少计算复杂度,如通过哈希映射将网络参数限制为几种特殊的值,存储时存储值及每个参数所属的类别;或是将参数矩阵限制为一些结构化矩阵,如托普利兹矩阵,不但可以减少存储空间,也可以通过快速算法减少计算的时间复杂度。
目前已有的针对递归神经网络的模型压缩方法仍有较多的提升空间,可以实现的压缩效果十分有限;混合使用不同的模型压缩方法虽然可以获得更好的压缩率,但直接混合会严重地损失模型的精度。探索更好的模型压缩方法及不同模型压缩方法间结合的方法,在尽量不损失网络模型精度的条件下最大化模型压缩率,仍然是一个函待解决的问题。
发明内容
发明目的:
本发明所要解决的技术问题是针对递归神经网络无法适应嵌入式系统的存储资源和计算能力,提出多种高效的模型压缩机制及混合方法,使递归神经网络在嵌入式系统上的应用成为可能。
技术方案:
为了解决上述技术问题,本发明公开了一种多机制混合的递归神经网络模型压缩方法,其特征在于,包括以下步骤:
步骤一,在初始训练阶段,根据实际需要灵活结合循环矩阵约束和前向激活函数近似压缩递归神经网络模型;
步骤二,在所述步骤一的基础上,增加混合量化机制进行递归神经网络模型的重训练,进一步提高模型的压缩率;
所述步骤一包括以下步骤:
步骤(11),使用循环矩阵约束,针对递归神经网络中不同参数矩阵对误差敏感程度的差异,将对误差不敏感的部分参数矩阵限制为循环矩阵;
步骤(12),若步骤(11)所选参数矩阵非方阵,则通过缺失部分补零或拼接的方式使其满足循环矩阵需为方阵的约束,并更新后向梯度传播算法使递归神经网络模型可以进行循环矩阵的批量训练;
步骤(13),使用前向激活函数近似,进一步更新后向梯度传播算法,使得神经网络模型在前向运算时将网络中的非线性激活函数替换为硬件友好的线性函数,同时保持后向梯度更新过程不变;
所述步骤二包括以下步骤:
步骤(21),分析步骤一训练出的递归神经网络模型中不同参数矩阵对误差敏感程度的差异,并结合递归神经网络模型在结构上的特点,将模型中的参数分为多组,每组选用不同的量化方法;
步骤(22),根据步骤(21)中模型参数的分组情况进行混合量化,并对递归神经网路模型进行重训练以恢复模型精度。
有益效果:
本发明创新性地提出了多种针对递归神经网络的模型压缩方法,同时可通过二次训练机制,弱化不同模型压缩机制间的相互影响,在尽量不损失网络模型精度的条件下最大化模型压缩率,使递归神经网络在嵌入式系统上的应用成为可能。本发明在嵌入式场景下的智能人机交互、机器人决策和控制领域有广泛的应用前景。
附图说明
下面结合附图和具体实施方式对本发明做更进一步的具体说明,本发明的上述和/或其他方面的优点将会变得更加清楚。
图1是本发明方法简化流程图。
具体实施方式:
下面详细描述本发明的实施例。因递归神经网络包含多种变体,本实施例将以其中最为基本的递归神经网络为例,旨在用于解释本发明,而不能理解为对本发明的限制。其余递归神经网络变体的实施过程与本实施例基本相同。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京大学,未经南京大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710151828.0/2.html,转载请声明来源钻瓜专利网。