[发明专利]基于深度卷积神经网络的层内非均匀的K平均聚类定点量化方法在审
申请号: | 201710033021.7 | 申请日: | 2017-01-12 |
公开(公告)号: | CN106897734A | 公开(公告)日: | 2017-06-27 |
发明(设计)人: | 王中风;孙方轩;林军 | 申请(专利权)人: | 南京大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04;G06N3/063;G06N3/08 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 210023 江苏省南京*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 卷积 神经网络 层内非 均匀 平均 定点 量化 方法 | ||
技术领域
本发明涉及深度学习模型压缩领域,特别是面向嵌入式系统的深度卷积神经网络的定点化领域。
背景技术
随着人工智能的快速发展,以深度学习为主导的算法所设计的应用已经越来愈多的出现在人们的生活,工作和娱乐中。然而深度神经网络往往由其十几甚至上百的卷积层构成,计算过程中产生的特征映射需要占据大量的存储空间。这意味着对于嵌入式应用对导致产品面积大大增加。所以,研究深度卷积神经网络的定点压缩问题,对于减小特征映射的存储开销,提高深度学习的实用价值有着非常非常重要的意义。
目前的深度卷积神经网络中的特征映射定点量化中主要是通过层间规则或者非规则量化方法,以减少特征映射的存储开销。
发明内容
发明目的:本发明所要解决的技术问题是针对深度卷积神经网络中特征映射存储开销过大的问题,提供一种基于深度卷积神经网络的层内非均匀的K平均聚类定点量化方法,从而在保持模型精度的情况下使得存储开销得以大大减少。
为了解决上述技术问题,本发明公开了一种基于深度卷积神经网络的层内非均匀的K平均聚类定点量化方法,包括以下步骤:
步骤一,选取部分深度卷积神经网络的能够正确识别的图像,并提取识别过程中产生的特征映射;
步骤二,对卷积神经网络中的特征映射进行层间非规则量化,在保持模型精度情况下,确定每一层卷积网络的最大量化位数;
步骤三,对于模型中的每一卷积层,利用K平均聚类算法(K Means Clustering)确定满足特征映射分布的定点值,并使定点值的范围在最大量化位数能表示的范围内,用定点值代表特征映射中的值,并以索引的形式进行保存;
步骤四,利用神经网络模型微调方法(Fine Tuning Method)对模型进行微调,消除量化带来的误差。
本发明中,优选地,所述步骤一包括以下步骤:
步骤(11),对已有深度卷积神经网络模型进行前向测试,由于正确样本的特征映射的分布更具有代表性,故选取其中能够正确识别的图像;
步骤(12),提取正确样本的特征映射。
本发明中,优选地,所述步骤二包括以下步骤:
步骤(21),在满足精度的前提下,通过将原本为全精度浮点数的特征映射改用固定位数的定点数表示,如果发生超过定点数表达范围的数,则在二进制下将超过规定位数的比特位截断,对深度卷积神经网络所有卷积层进行统一量化位数的规则量化;
步骤(22),在不大于规则量化所确定的量化位数的前提下,通过层间非规则量化确定每一层卷积神经网络所满足的最大量化位数,以节省更多存储空间;
本发明中,优选地,所述步骤三包括以下步骤:
步骤(31),确定最大能容忍的精度损失,如果量化带来的精度损失超过此阈值,则提高量化位数;
步骤(32),将0和每层卷积层的最大量化位数能达到的最大值分别设为定点值的区间的起点和终点;
步骤(33),在已确定的区间内利用K平均聚类方法对提取的特征映射进行聚类,将定点值设为将聚类中心点,并确保定点值的数量小于最大量化位数可以表示的数量;
步骤(34),浮点数表示的将选取的定点值从小到大对应以相应的索引;
步骤(35),按向下取值的原则,将特征映射中的所有值分别替换为离其最近并小于自己的定点值并保证在小于能同人的最大精度损失的情况下尽可能减小定点值的数量;
步骤(36),表示索引所用的位数小于表示定点值所用的位数,存储时采用定点值对应的索引进行存储可以在层间非规则量化的基础上进一步缩减存储空间;
本发明中,优选地,所述步骤四包括以下步骤:
步骤(41),在满足定点约束的条件下,对模型进行再训练对模型进行微调,消除误差。
本发明的原理是通过提取识别过程中产生的特征映射。其次,对卷积神经网络中的特征映射进行层间非规则K平均聚类量化。然后对于模型中的每一卷积层,在最大量化位数能表示的范围内,通过K平均聚类方法,利用卷积神经网络的分布特征,选取定点值,并用定点值代表特征映射中的值,并以索引的形式进行保存。最后,利用神经网络模型微调方法对模型进行微调,消除量化带来的误差。
有益效果:本发明通过软件和硬件结合方法进行模型压缩,在对深度卷积神经网络进行层内非均匀定点化后,即可大幅度减少其存储开销。本发明在深度神经网络在嵌入式设备中有广泛的应用前景。
附图说明
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京大学,未经南京大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710033021.7/2.html,转载请声明来源钻瓜专利网。