[发明专利]基于中间层特征图压缩的卷积方法、模型及计算机设备在审
申请号: | 202110397024.5 | 申请日: | 2021-04-13 |
公开(公告)号: | CN113052258A | 公开(公告)日: | 2021-06-29 |
发明(设计)人: | 杜力;杜源;黄一珉;邵壮 | 申请(专利权)人: | 南京大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04 |
代理公司: | 北京弘权知识产权代理有限公司 11363 | 代理人: | 逯长明;许伟群 |
地址: | 210023 江苏省南京市栖*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 中间层 特征 压缩 卷积 方法 模型 计算机 设备 | ||
本申请涉及神经网络技术领域,提供一种基于中间层特征图压缩的卷积方法、模型及计算机设备,所述基于中间层特征图压缩的卷积方法,不依赖中间层特征图本身的稀疏性,采用量化及稀疏矩阵压缩对数据量较大的中间层特征图进行阵压缩,降低对硬件存储空间的要求及处理器的能耗,提升处理器的件吞吐率,从根本上解决处理器存储以及数据搬运的问题。
技术领域
本申请涉及神经网络技术领域,尤其涉及一种基于中间层特征图压缩的卷积方法、模型及计算机设备。
背景技术
随着神经网络技术的发展与成熟,神经网络技术的应用领域越来越广,例如在工业领域,利用训练好的神经网络模型进行图片识别,对工业场景或者工业产品进行分类,相比于人工,分类神经网络不仅可以高效率的完成工作,而且极大的提高了准确率。
但是,嵌入式系统或物联网终端部署神经网络模型,由于输入神经网络模型的图片较大,在卷积过程中,中间层特征图数据量也会很大,将会造成了较高的片上存储需求以及较高的片上与片下的数据传输量,导致处理器的功耗较高,吞吐率下降。
在现有技术中,为了降低处理器的功耗,提高处理器的吞吐率,主要聚焦于神经网络模型的压缩和网络权重的压缩,但是,以上压缩方法对于特征图的压缩,无法得到较好的结果,此外,还存在一些技术方案,利用特征图的稀疏性来减少片上存储及数据搬运,但由于神经网络算法不断的发展,权重的稀疏性减少,激活函数ReLU被Leaky ReLU/PReLU等取代,导致特征图几乎不具有稀疏性,从而导致利用特征图稀疏性设计的硬件架构不仅不能带来提升,反而造成一些不必要的浪费,例如稀疏矩阵压缩的索引。
发明内容
针对中间层特征图数据量较大,且中间层特征图不具有稀疏性的卷积推理,为了降低处理器的功耗,提高处理器的吞吐率,本申请提供一种基于中间层特征图压缩的卷积方法、卷积模型及计算机设备。
本申请第一方面提供一种基于中间层特征图压缩的卷积方法,包括:
S101,获取输入图像;
S102,对所述输入图像进行预处理,所述预处理为高斯滤波处理;
S103,将预处理后的输入图像作为第一个硬件融合算子的输入,进行推理运算,获得第一个硬件融合算子的中间层特征图,所述硬件融合算子至少包括卷积层、池化层、BN层或Relu层中的任意一层,且若硬件融合算子包括卷积层,则所述卷积层处于第一层;
S104,判断中间层特征图的数据量是否大于预设的阈值,若中间层特征图的数据量小于或等于预设的阈值,则直接存储所述中间层特征图;若中间层特征图的数据量大于预设的阈值,则对中间层特征图进行量化及稀疏矩阵压缩,并存储经过量化及稀疏矩阵压缩后的中间层特征图;
S105,提取S104中存储的中间层特征图或量化及稀疏矩阵压缩后的中间层特征图,并作为下一个硬件融合算子的推理运算的输入,获得下一个硬件融合算子的中间层特征图;
S106,重复S104至S105,直至所有硬件融合算子完成推理运算,获得最终的输出结果。
可选的,在对中间层特征图进行量化及稀疏矩阵压缩的步骤之前,还包括:对所述中间层特征图进行DCT变换,获得DCT变换后的中间层特征图。
可选的,在所述提取所述中间层特征图或稀疏量化后的中间层特征图的步骤之后,还包括:
对所述中间层特征图进行IDCT变换,或对稀疏量化后的中间层特征图进行恢复量化和IDCT变换。
本申请第二方面提供另一种基于中间层特征图压缩的卷积方法,包括:
获取输入图像;
对所述输入图像进行预处理,所述预处理为高斯滤波处理;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京大学,未经南京大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110397024.5/2.html,转载请声明来源钻瓜专利网。