[发明专利]目标识别的方法在审
申请号: | 202010791545.4 | 申请日: | 2020-08-07 |
公开(公告)号: | CN112149687A | 公开(公告)日: | 2020-12-29 |
发明(设计)人: | 赖志博;胡攀攀;李康 | 申请(专利权)人: | 武汉万集信息技术有限公司 |
主分类号: | G06K9/46 | 分类号: | G06K9/46;G06K9/62;G06N20/00;G06T7/593;G06T7/73;G06T7/80 |
代理公司: | 北京康信知识产权代理有限责任公司 11240 | 代理人: | 赵静 |
地址: | 430070 湖北省武汉市东湖新技术开发区光谷大*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 目标 识别 方法 | ||
1.一种目标识别方法,其特征在于,包括:
获取深度相机的标定参数和目标叉车的特征参数;
根据所述深度相机的标定参数和目标叉车的特征参数标定所述深度相机相对于目标叉车臂的第一位置,其中,所述目标叉车安装有所述目标叉车臂;
获取所述深度相机拍摄到的目标深度图像;
将所述目标深度图像按照深度进行分层,得到分层后的第一组深度图像;
将所述第一组深度图像输入目标识别模型,得到所述目标识别模型输出的目标识别结果;
基于所述深度相机的标定参数、所述第一位置以及所述目标识别结果确定所述目标对象的目标轮廓和所述目标对象相对于所述目标叉车的第二位置。
2.根据权利要求1所述的方法,其特征在于,将所述目标深度图像按照深度进行分层,得到分层后的第一组深度图像,包括:
获取所述目标深度图像的深度范围;
按照预设分辨率将所述目标深度图像在所述深度范围内进行离散化处理,得到一组按照深度划分的所述第一组深度图像。
3.根据权利要求1所述的方法,其特征在于,所述将所述第一组深度图像输入目标识别模型,得到所述目标识别模型输出的目标识别结果,包括:
从所述第一组深度图像中按照预定顺序逐层确定出第二组深度图像,其中,所述第二组深度图像为所述第一组深度图像中包含所述目标对象的目标轮廓的一组深度图像;
从所述第二组深度图像中确定出所述目标识别结果,其中,所述目标识别结果包括所述第二组深度图像以及所述第二组深度图像中每个深度图像对应所在的层。
4.根据权利要求3所述的方法,其特征在于,从所述第一组深度图像中按照预定顺序逐层确定出第二组深度图像,包括:
从所述第一组深度图像中去除包含所述离散化的点的数量小于第一预设阈值的深度图像,得到第三组深度图像;
将所述第三组深度图像中的每个深度图像进行二值化处理,得到第四组深度图像;
对所述第四组深度图像进行第一目标处理,得到第五组深度图像,其中,所述第一目标处理用于图像去噪处理和/或图像平滑处理;
对所述第五组深度图像进行第二目标处理,得到所述第二组深度图像,其中,所述第二目标处理用于按照所述深度范围从小到大的顺序逐层查找所述目标轮廓,确定出所述第二组深度图像,并确定出所述第五组深度图像中除所述第二组深度图像以外的第六组深度图像,所述第六组深度图像用于动态调整所述深度范围的最小值。
5.根据权利要求1所述的方法,其特征在于,在将所述第一组深度图像输入目标识别模型之前,所述方法还包括:
重复执行以下步骤,直到所述初始识别模型输出的第一识别概率和第二识别概率之间的差值小于或等于所述预定阈值:
获取深度相机拍摄到的第一组样本深度图像和第二组样本深度图像、以及与所述第一组样本深度图像一一对应的一组标签;
将所述第一组样本深度图像和所述第二组样本深度图像输入所述初始识别模型,生成所述第一样本识别结果,其中,所述第一样本识别结果包括所述初始识别模型输出的所述第一识别概率和所述第二识别概率,所述第一识别概率用于表示所述第一样本识别结果识别出所述样本深度图像中包括所述样本对象的轮廓的概率,所述第二识别概率用于表示所述第一样本识别结果识别出所述样本深度图像中未包括所述样本对象的轮廓的概率;
在所述第一识别概率和所述第二识别概率之间的差值大于所述预定阈值的情况下,对所述初始识别模型中的参数进行调整;
在所述第一识别概率和所述第二识别概率之间的差值小于所述预定阈值的情况下,将所述第一样本识别结果与所述一组标签进行比对,得到所述第一组样本深度图像以及所述第一组样本深度图像中每个样本深度图像对应所在的层。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于武汉万集信息技术有限公司,未经武汉万集信息技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010791545.4/1.html,转载请声明来源钻瓜专利网。