[发明专利]神经网络的训练方法、属性检测方法、装置及电子设备有效
申请号: | 201710131137.4 | 申请日: | 2017-03-07 |
公开(公告)号: | CN108229522B | 公开(公告)日: | 2020-07-17 |
发明(设计)人: | 武伟;李博;闫俊杰 | 申请(专利权)人: | 北京市商汤科技开发有限公司 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06K9/46;G06N3/08;G06N3/04 |
代理公司: | 北京康达联禾知识产权代理事务所(普通合伙) 11461 | 代理人: | 罗延红;姚远达 |
地址: | 100084 北京市海淀区中*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 神经网络 训练 方法 属性 检测 装置 电子设备 | ||
本发明实施例提供一种神经网络的训练方法、属性检测方法、装置及电子设备。一种深度神经网络的训练方法,包括:通过第一神经网络获取多个第一样本图像的图像特征向量,所述第一样本图像含有目标物体的多个属性的标注信息;根据所述图像特征向量,通过具有记忆能力的第二神经网络获取所述目标物体的多个属性的检测信息;根据所述多个属性的检测信息和所述多个属性的标注信息获取检测误差值;根据所述检测误差值调整所述第一神经网络的网络参数和第二神经网络的网络参数。由此训练得到的深度神经网络可自适应地检测出物体的多个相互关联的属性,具有通用性,可用于检测任一种物体的相互具有关联/依赖关系的众多属性/子属性的信息。
技术领域
本发明实施例涉及图像处理技术,尤其涉及一种深度神经网络的训练方法、物体属性检测方法、装置及电子设备。
背景技术
在对图像执行智能识别的应用场景中,首先需要从拍摄的如视频图像中检测目标物体(如人脸、人体、车辆等),再根据检测到目标物体的图像特征进一步进行分析来提取图像中目标物体的属性信息以及/或者对目标物体的关键点进行定位。
此后,可基于提取的属性信息以及/或者定位的关键点进行例如记录、检索、监控、跟踪或显示等业务处理。
发明内容
本发明实施例的目的在于,提出一种深度神经网络的训练方法和检测物体属性的方法,以较准确地检测通用物体的多个属性。
根据本发明实施例的一方面,提供一种深度神经网络的训练方法,包括:通过第一神经网络获取多个第一样本图像的图像特征向量,所述第一样本图像含有目标物体的多个属性的标注信息;根据所述图像特征向量,通过具有记忆能力的第二神经网络获取所述目标物体的多个属性的检测信息;根据所述多个属性的检测信息和所述多个属性的标注信息获取检测误差值;根据所述检测误差值调整所述第一神经网络的网络参数和第二神经网络的网络参数。
可选地,所述根据所述图像特征向量,通过第二神经网络获取所述目标物体的多个属性的检测信息包括:根据所述图像特征向量,通过第二神经网络在时序上迭代地获取所述目标物体的多个属性的检测信息,直到所述迭代满足迭代终止条件为止。
可选地,所述获取所述多个属性的检测信息的每次迭代处理包括:根据前次迭代获取到的第一属性的检测信息获取所述第一属性的第一属性特征向量;根据所述图像特征向量和所述第一属性特征向量,通过所述第二神经网络获取第二属性特征向量;根据所述第二属性特征向量获取第二属性的检测信息。
可选地,所述根据前次迭代获取到的属性的检测信息获取所述属性的第一属性特征向量包括:根据语义分析方法将前次迭代获取到的属性的信息转换为规范属性的信息,将所述规范属性的信息编码为所述编码标签特征向量。
可选地,在通过第一神经网络获取多个第一样本图像的图像特征向量之前,所述方法还包括:分别从所述第一样本图像去除不属于所述目标物体的图像部分。
可选地,所述根据所述多个属性的检测信息和所述多个属性的标注信息获取检测误差值包括:根据所述多个属性的检测信息和所述多个属性的标注信息分别计算各个属性的属性检测误差值;将各个所述属性检测误差值的均值作为所述检测误差值。
可选地,所述第一神经网络为卷积神经网络,和/或,所述第二神经网络为时间递归神经网络。
可选地,所述第二神经网络末端设有分类器层;所述根据所述第二属性特征向量获取第二属性的检测信息包括:通过所述分类器层从所述第二属性特征向量获取第二属性的检测信息。
可选地,在通过第一神经网络获取多个第一样本图像的图像特征向量之前,所述方法还包括:使用多个第二样本图像训练第三神经网络,所述多个第二样本图像标注有多个物体的分类信息;使用所述第三神经网络训练后的特征层的网络参数初始化所述第一神经网络的网络参数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京市商汤科技开发有限公司,未经北京市商汤科技开发有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710131137.4/2.html,转载请声明来源钻瓜专利网。