[发明专利]一种基于深度学习的图像去模糊方法及系统在审
申请号: | 201810796502.8 | 申请日: | 2018-07-19 |
公开(公告)号: | CN109087256A | 公开(公告)日: | 2018-12-25 |
发明(设计)人: | 刘一胶;董远;白洪亮;熊风烨 | 申请(专利权)人: | 北京飞搜科技有限公司 |
主分类号: | G06T5/00 | 分类号: | G06T5/00;G06N3/04 |
代理公司: | 北京路浩知识产权代理有限公司 11002 | 代理人: | 王莹;吴欢燕 |
地址: | 100876 北京市海淀区西土城路*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 模糊图像 目标图像 神经网络 预设 预处理 模糊处理 图像处理 图像 模糊 样本 清晰图像 输出结果 模糊核 准确率 获知 应用 学习 | ||
1.一种基于深度学习的图像去模糊方法,其特征在于,包括:
获取待去模糊的目标图像,对所述目标图像进行预处理;
将预处理后的所述目标图像输入至预设神经网络,根据所述预设神经网络的输出结果,获得所述目标图像对应的去模糊图像;
其中,所述预设神经网络是根据模糊图像样本和清晰图像样本进行训练后获得的。
2.根据权利要求1所述的方法,其特征在于,所述对所述目标图像进行预处理,具体为:
将所述目标图像的大小调整至预设尺寸。
3.根据权利要求1所述的方法,其特征在于,所述将预处理后的所述目标图像输入至预设神经网络,根据所述预设神经网络的输出结果,获得所述目标图像对应的去模糊图像,具体为:
将预处理后的所述目标图像输入至所述预设神经网络的下采样层,利用所述下采样层对预处理后的所述目标图像进行下采样,输出所述目标图像对应的特征向量;
将所述特征向量输入至所述预设神经网络的残差网络层,利用所述残差网络层对所述特征向量进行特征补偿,输出补偿后的特征向量;
将补偿后的特征向量输入至所述预设神经网络的上采样层,利用所述上采样层对补偿后的特征向量进行上采样,输出所述目标图像对应的去模糊图像。
4.根据权利要求1所述的方法,其特征在于,所述将预处理后的所述目标图像输入至预设神经网络,之前还包括:
获取多个清晰图像样本,对于任意一个清晰图像样本,获取该清晰图像样本对应的模糊图像样本,将该清晰图像样本和对应的模糊图像样本的组合作为一个训练样本,获得多个训练样本;
利用多个训练样本对所述预设神经网络进行训练。
5.根据权利要求4所述的方法,其特征在于,所述获取该清晰图像样本对应的模糊图像样本,具体为:
对于任意一个清晰图像样本,从预设模糊处理方式中选择一种模糊处理方式对该清晰图像样本进行模糊处理,获得该清晰图像样本对应的模糊图像样本;
其中,所述预设模糊处理方式包括散焦模糊处理、高斯模糊处理、运动模糊处理、混合模糊处理和任意模糊处理。
6.根据权利要求4所述的方法,其特征在于,所述利用多个训练样本对所述预设神经网络进行训练,具体为:
对于任意一个训练样本,将该训练样本输入至所述预设神经网络,根据所述预设神经网络的输出结果,获得该训练样本对应的输出图像;
利用预设的损失函数计算该训练样本对应的输出图像与该训练样本中的清晰图像样本之间的损失值;
若所述损失值小于预设阈值,则所述预设神经网络训练完成。
7.根据权利要求6所述的方法,其特征在于,所述将该训练样本输入至所述预设神经网络,之前还包括:
对该训练样本进行水平翻转和/或上下翻转,并将该训练样本的大小调整至预设尺寸。
8.一种基于深度学习的图像去模糊系统,其特征在于,包括:
预处理模块,用于获取待去模糊的目标图像,对所述目标图像进行预处理;
去模糊模块,用于将预处理后的所述目标图像输入至预设神经网络,根据所述预设神经网络的输出结果,获得所述目标图像对应的去模糊图像;
其中,所述预设神经网络是根据模糊图像样本和清晰图像样本进行训练后获得的。
9.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述处理器通信连接的至少一个存储器,其中:
所述存储器存储有可被所述处理器执行的程序指令,所述处理器调用所述程序指令能够执行如权利要求1至7任一所述的方法。
10.一种非暂态计算机可读存储介质,其特征在于,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令使所述计算机执行如权利要求1至7任一所述的方法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京飞搜科技有限公司,未经北京飞搜科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810796502.8/1.html,转载请声明来源钻瓜专利网。