[发明专利]深度神经网络模型训练、图片处理方法及装置和设备在审
申请号: | 201611213478.8 | 申请日: | 2016-12-23 |
公开(公告)号: | CN108205802A | 公开(公告)日: | 2018-06-26 |
发明(设计)人: | 任思捷;徐立;严琼;孙文秀;戴宇荣;张熠 | 申请(专利权)人: | 北京市商汤科技开发有限公司 |
主分类号: | G06T5/00 | 分类号: | G06T5/00;G06N3/04 |
代理公司: | 北京柏杉松知识产权代理事务所(普通合伙) 11413 | 代理人: | 赵元;马敬 |
地址: | 100084 北京市海淀区中*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 样本图片 神经网络模型 加扰 特征差异 图片处理 训练样本 图片库 电子设备 模型训练 完成条件 网络参数 训练过程 图片 | ||
本发明实施例提供了一种深度神经网络模型训练方法及装置、图片处理方法及装置和电子设备。该模型训练方法基于训练样本图片库,对深度神经网络模型进行多次训练直至满足预定的训练完成条件,所述训练样本图片库包括多张无扰样本图片和多张加扰样本图片,每个无扰样本图片对应至少一张加扰样本图片,对所述深度神经网络模型的至少一次训练过程包括:利用所述深度神经网络模型对加扰样本图片进行去扰处理,得到去扰处理图片;确定所述去扰处理图片与所述加扰样本图片对应的无扰样本图片之间的特征差异;根据所述特征差异调整所述深度神经网络模型的网络参数。通过本方案,可以解决现有技术适用范围较小,导致实用性较低的问题。
技术领域
本发明涉及图片处理技术领域,特别是涉及一种深度神经网络模型训练方法及装置、图片处理方法及装置和电子设备。
背景技术
为了达到较好的图像应用效果,图像处理中对于图片的质量有较高的要求。而由于图片中的干扰会对图片中信息的识别产生非常大的影响,因此,存在对有干扰图片进行处理的需求,其中,有干扰图片包括但不限于存在人工干扰的图片,人工干扰的类型包括但不局限于遮挡干扰。
传统关于遮挡类型的图片处理方法所基于的处理思想为:首先剪切上述遮挡,然后对缺失部分进行填充。
发明内容
本发明实施例的目的在于提供一种深度神经网络模型训练方法及装置、图片处理方法及装置和电子设备,以解决现有技术适用范围较小,导致实用性较低的问题。具体技术方案如下:
第一方面,本发明实施例提供了一种深度神经网络模型训练方法,所述方法包括:
基于训练样本图片库对深度神经网络模型进行多次训练直至满足预定的训练完成条件,所述训练样本图片库包括多张无扰样本图片和多张加扰样本图片,每个无扰样本图片对应至少一张加扰样本图片,对所述深度神经网络模型的至少一次训练过程包括:
利用所述深度神经网络模型对加扰样本图片进行去扰处理,得到去扰处理图片;
确定所述去扰处理图片与所述加扰样本图片对应的无扰样本图片之间的特征差异;
根据所述特征差异调整所述深度神经网络模型的网络参数。
可选的,所述方法还包括:获取创建所述训练样本图片库所需的加扰样本图片。
可选的,所述获取创建所述训练样本图片库所需的加扰样本图片的步骤,包括:
对无扰样本图片进行加扰,获得与所述无扰样本图片对应的至少一张加扰样本图片,将所得到的加扰样本图片作为创建所述训练样本图片库所需的加扰样本图片。
可选的,所述确定所述去扰处理图片与所述加扰样本图片对应的无扰样本图片之间的特征差异的步骤,包括:
利用损失函数,计算所述去扰处理图片的特征与所述加扰样本图片对应的无扰样本图片的特征之间的损失值。
可选的,所述训练完成条件包括:
训练次数不小于预定训练次数阀值;或者
所述损失值小于预定容差范围和/或所述损失值不大于预定阀值。
可选的,所述方法包括的不同次训练过程输入到所述深度神经网络中的加扰样本图片数量相同。
可选的,所述方法包括的不同次训练过程输入到所述深度神经网络中的加扰样本图片至少一张不同。
可选的,所述深度神经网络模型包括:一个损失计算层和至少一个处理层;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京市商汤科技开发有限公司,未经北京市商汤科技开发有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201611213478.8/2.html,转载请声明来源钻瓜专利网。