[发明专利]神经网络的训练方法、物体检测方法、装置和电子设备有效
申请号: | 201710160611.6 | 申请日: | 2017-03-17 |
公开(公告)号: | CN108229675B | 公开(公告)日: | 2021-01-01 |
发明(设计)人: | 王宇龙;闫俊杰 | 申请(专利权)人: | 北京市商汤科技开发有限公司 |
主分类号: | G06N3/08 | 分类号: | G06N3/08;G06N3/04 |
代理公司: | 北京康达联禾知识产权代理事务所(普通合伙) 11461 | 代理人: | 罗延红;刘洁 |
地址: | 100084 北京市海淀区中*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 神经网络 训练 方法 物体 检测 装置 电子设备 | ||
1.一种深度神经网络模型的训练方法,包括:
获取从样本图像提取的目标物体的多个区域候选框以及所述多个区域候选框的预测准确信息;
根据所述多个区域候选框及其预测准确信息,确定用于进行物体检测的第一深度神经网络的状态特征数据;
通过所述第一深度神经网络,从所述多个区域候选框包括的当前尚未被检测到的第一区域候选框中检测第二区域候选框,所述第二区域候选框为被选中概率最高的第一区域候选框,并根据所述第二区域候选框以及所述第一区域候选框的被选中为第二区域候选框的概率的数据,更新第一深度神经网络的状态特征数据;
基于所述多个区域候选框被检测的结果,为所述多个区域候选框确定检测反馈数据;
根据所述检测反馈数据,调整具有更新过的状态特征数据的所述第一深度神经网络的网络参数,
其中,所述第一深度神经网络的状态特征数据用于表征当前处理的样本图像在所述第一深度神经网络中表达的图像特征状态。
2.根据权利要求1所述的方法,其中,所述根据所述第二区域候选框以及所述第一区域候选框的被选中为第二区域候选框的概率的数据,更新第一深度神经网络的状态特征数据包括:
通过用于提取图像特征的第二深度神经网络,对所述第二区域候选框进行特征变换,并且
根据所述第二区域候选框的变换特征以及所述第一区域候选框的被选中为第二区域候选框的概率的数据,更新第一深度神经网络的状态特征数据。
3.根据权利要求2所述的方法,其中,所述根据为所述多个区域候选框确定的检测反馈数据,调整具有更新过的状态特征数据的所述第一深度神经网络的网络参数还包括:
根据为所述多个区域候选框确定的检测反馈数据,调整所述第二深度神经网络的网络参数。
4.根据权利要求1~3中任一项所述的方法,其中,在根据所述多个区域候选框及其预测准确信息,确定用于进行物体检测的第一深度神经网络的状态特征数据之前,所述方法还包括:
根据区域候选框在样本图像中的位置,分别将所述多个区域候选框投射到预定尺寸的网格中,生成区域候选框网格图,并且将所述多个区域候选框的预测准确信息根据区域候选框在样本图像中的位置分别投射到所述预定尺寸的网格中,生成所述样本图像的打分图;
所述根据所述多个区域候选框及其预测准确信息确定用于进行物体检测的第一深度神经网络的状态特征数据包括:
将所述样本图像的打分图进行卷积,获得所述多个区域候选框的特征响应数据作为第一深度神经网络初始的状态特征数据。
5.根据权利要求4所述的方法,其中,所述通过所述第一深度神经网络,从所述多个区域候选框包括的当前尚未被检测到的第一区域候选框中检测第二区域候选框,并根据所述第二区域候选框以及所述第一区域候选框的被选中为第二区域候选框的概率的数据,更新第一深度神经网络的状态特征数据包括:
通过所述第一深度神经网络,从所述尚未被检测到的第一区域候选框网格图中检测第二区域候选框网格图,并根据所述第二区域候选框网格图以及所述第一区域候选框网格图的被选中为第二区域候选框的概率的数据,更新第一深度神经网络的状态特征数据。
6.根据权利要求1~3中任一项所述的方法,其中,所述通过所述第一深度神经网络,从所述多个区域候选框包括的当前尚未被检测到的第一区域候选框中检测第二区域候选框,并根据所述第二区域候选框以及所述第一区域候选框的被选中为第二区域候选框的概率的数据,更新第一深度神经网络的状态特征数据包括:
迭代地执行以下检测操作,直到所述检测满足迭代终止条件为止:通过具有所述状态特征数据的第一深度神经网络,从尚未被检测到的区域候选框当中检测被选中概率最高的第二区域候选框,并且根据所述第二区域候选框以及所述第一区域候选框的被选中为第二区域候选框的概率的数据,更新第一深度神经网络的状态特征数据。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京市商汤科技开发有限公司,未经北京市商汤科技开发有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710160611.6/1.html,转载请声明来源钻瓜专利网。