[发明专利]物体对象定位方法、装置、计算机设备和存储介质有效
申请号: | 201910222521.4 | 申请日: | 2019-03-22 |
公开(公告)号: | CN110163910B | 公开(公告)日: | 2021-09-28 |
发明(设计)人: | 姜媚 | 申请(专利权)人: | 腾讯科技(深圳)有限公司 |
主分类号: | G06T7/70 | 分类号: | G06T7/70;G06T7/187 |
代理公司: | 广州华进联合专利商标代理有限公司 44224 | 代理人: | 黄晓庆 |
地址: | 518000 广东省深圳*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 物体 对象 定位 方法 装置 计算机 设备 存储 介质 | ||
1.一种物体对象定位方法,所述方法包括:
获取待处理图像;
提取所述待处理图像的图像特征;
在神经网络模型中,通过一个任务根据图像特征确定所述待处理图像的图像类型,通过另一个任务,基于所述图像特征对所述待处理图像的每个像素点进行预设分类映射,得到各所述像素点的区域概率;所述区域概率包括所述像素点属于对象区域的概率;所述神经网络模型的损失包括图像类型分类损失和像素级分类损失,所述图像类型分类损失为采用归一化指数函数损失定义的损失;所述像素级分类损失为采用类间均衡的交叉熵损失来定义的损失,所述像素级分类损失为交叉熵与像素点对应的权重的乘积,其中,权重与类的像素数目呈反比;所述神经网络模型的总损失为所述像素级分类损失的常数倍与所述图像类型分类损失的和值;
根据所述像素点的所述区域概率,分别确定各所述像素点的所属区域;
对所述所属区域为所述对象区域的各所述像素点进行连通域提取,确定所述待处理图像中的所述对象区域;
所述基于所述图像特征对所述待处理图像的每个像素点进行预设分类映射,得到各所述像素点的区域概率,包括:
将所述图像特征输入训练好的全卷积神经网络模型进行卷积和池化处理,得到卷积结果,所述全卷积神经网络模型包括至少三个池化层,每个池化层对输入数据进行卷积和池化处理得到卷积结果;
结合所述全卷积神经网络模型的池化层的所述卷积结果及所述池化层的输入,确定所述池化层对应的融合结果;
基于各所述池化层对应的所述融合结果,确定各所述像素点的区域概率。
2.根据权利要求1所述的方法,其特征在于,
所述结合所述全卷积神经网络模型的池化层的所述卷积结果及所述池化层的输入,确定所述池化层对应的融合结果,还包括:
对所述全卷积神经网络模型的所述池化层的下一池化层对应的所述融合结果进行上采样,得到所述下一池化层对应的采样结果;
将所述下一池化层对应的所述采样结果与所述池化层对应的上一池化层所述卷积结果进行融合,确定所述池化层对应的所述融合结果。
3.根据权利要求1所述的方法,其特征在于,所述区域概率包括第一区域概率及第二区域概率;所述第一区域概率为所述像素点属于所述对象区域的概率,所述第二区域概率为所述像素点属于背景区域的概率。
4.根据权利要求3所述的方法,其特征在于,所述基于所述图像特征对所述待处理图像的每个像素点进行预设分类映射,得到各所述像素点的区域概率,包括:
基于所述图像特征对所述待处理图像的每个像素点进行第一预设分类映射,得到各所述像素点的所述第一区域概率;
基于所述图像特征对所述待处理图像的每个像素点进行第二预设分类映射,得到各所述像素点的所述第二区域概率。
5.根据权利要求1所述的方法,其特征在于,所述物体对象为证件对象。
6.根据权利要求1所述的方法,其特征在于,所述对所述所属区域为所述对象区域的各所述像素点进行连通域提取,确定所述待处理图像中的所述对象区域,包括:
根据所述图像特征确定所述待处理图像的图像类型;
基于所述图像类型对所述所属区域为所述对象区域的各所述像素点进行连通域提取,确定所述待处理图像中的所述对象区域。
7.根据权利要求6所述的方法,其特征在于,所述基于所述图像类型对所述所属区域为所述对象区域的各所述像素点进行连通域提取,确定所述待处理图像中的所述对象区域,包括:
当所述图像类型为物体对象图像时,基于所述图像类型对所述所属区域为所述对象区域的各所述像素点进行连通域提取,确定所述待处理图像中的所述对象区域。
8.根据权利要求1所述的方法,其特征在于,所述对所述所属区域为所述对象区域的各所述像素点进行连通域提取,确定所述待处理图像中的所述对象区域,包括:
对所属区域为所述对象区域的各所述像素点进行连通域提取,确定候选对象区域;
对所述候选对象区域进行修正,得到所述待处理图像中的所述对象区域。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于腾讯科技(深圳)有限公司,未经腾讯科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910222521.4/1.html,转载请声明来源钻瓜专利网。