[发明专利]图像处理方法和电子设备、存储介质在审
申请号: | 201811439635.6 | 申请日: | 2018-11-28 |
公开(公告)号: | CN109543766A | 公开(公告)日: | 2019-03-29 |
发明(设计)人: | 张跃进;李光辉;展爱云 | 申请(专利权)人: | 钟祥博谦信息科技有限公司 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04 |
代理公司: | 北京细软智谷知识产权代理有限责任公司 11471 | 代理人: | 郭亚芳 |
地址: | 431900 湖北省荆门市钟祥*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 神经网络 算法 压缩 深度压缩 图像处理 网络压缩 压缩算法 轻量化 未压缩 分类 图像 存储介质 电子设备 网络算法 原始神经 输出 图片 申请 应用 网络 | ||
本申请涉及一种图像处理方法,包括:获取待处理的图片;获取待采用的深度神经网络;采用所述深度神经网络,对所述图片进行分类,得到分类后的图像;输出分类后的图像;其中,所述待采用的深度神经网络为压缩后的深度神经网络,所述获取待采用的深度神经网络,包括:获取未压缩的深度神经网络;采用压缩算法,对所述未压缩的深度神经网络进行压缩,得到待采用的深度神经网络;其中,所述压缩算法包括:深度压缩算法,或者,轻量化网络压缩算法。通过将压缩后的深度网络算法应用于神经网络,且通过深度压缩算法或轻量化网络压缩算法对深度神经网络进行压缩,从而提高原始神经网络的精度。
技术领域
本申请涉及人工智能技术领域,尤其涉及一种图像处理方法和电子设备、存储介质。
背景技术
人工智能领域发展十分迅速,深度神经网络是人工智能的一个重要分支。神经网络内部结构复杂,参数量呈现越来越多的趋势,对计算能力的要求也越来越高。
相关技术中,神经网络需要在图形处理器上进行训练和测试,如果在中央处理器上进行训练和测试,其测试速度比在图形处理器上要慢数十倍甚至上百倍,故需要将其压缩,并存储到存储空间和计算能力都较为有限的平板电脑、手机等智能设备中。
发明内容
为至少在一定程度上克服相关技术中存在的问题,本申请提供一种图像处理方法和电子设备、存储介质。
根据本申请实施例的第一方面,提供一种图像处理方法,包括:获取待处理的图片;
获取待采用的深度神经网络;
采用所述深度神经网络,对所述图片进行分类,得到分类后的图像;
输出分类后的图像;
其中,所述待采用的深度神经网络为压缩后的深度神经网络,所述获取待采用的深度神经网络,包括:
获取未压缩的深度神经网络;
采用压缩算法,对所述未压缩的深度神经网络进行压缩,得到待采用的深度神经网络;
其中,所述压缩算法包括:深度压缩算法,或者,轻量化网络压缩算法。
可选的,所述深度神经网络为深度学习AlexNet网络。
可选的,当采用深度压缩算法时,所述采用压缩算法,对所述未压缩的深度神经网络进行压缩,包括:
对神经网络中卷积层进行网络剪枝;
对所述神经网络的全连接层进行网络剪枝;
对所述神经网络进行权值量化和权值共享。
可选的,所述对神经网络中卷积层进行网络剪枝,包括:
将所述卷积层的稀疏率设置为0到1之间的任意一个数值,学习率设置为固定值0.001;
获取所述神经网络训练过程中产生的连接参数,确定非必要的连接参数,对所述非必要的连接参数进行移除;
设定预设阈值,若所述连接参数小于所述预设阈值,则所述连接参数为所述非必要的连接参数。
可选的,所述对所述神经网络的全连接层进行网络剪枝,包括:
将所述全连接层的稀疏率设置为0到1之间的任意一个数值,学习率设置为固定值0.001。
可选的,所述对所述神经网络进行权值量化和权值共享,包括:
更改所述卷积层的量化项参数状态;
使用k均值聚类方法,减少所需表示的权值的数量;
赋值同一聚类的连接参数为同一个权值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于钟祥博谦信息科技有限公司,未经钟祥博谦信息科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811439635.6/2.html,转载请声明来源钻瓜专利网。