[发明专利]一种基于双目视觉的目标快速定位方法及装置在审
申请号: | 202010407645.2 | 申请日: | 2020-05-14 |
公开(公告)号: | CN111583342A | 公开(公告)日: | 2020-08-25 |
发明(设计)人: | 王晔昕;彭嫚;刘召芹;万文辉;邸凯昌 | 申请(专利权)人: | 中国科学院空天信息创新研究院 |
主分类号: | G06T7/73 | 分类号: | G06T7/73;G06T7/80;G06T7/00;G06N3/08;G06N3/04 |
代理公司: | 北京纪凯知识产权代理有限公司 11245 | 代理人: | 王胥慧 |
地址: | 100101 北京*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 双目 视觉 目标 快速 定位 方法 装置 | ||
1.一种基于双目视觉的目标快速定位方法,其特征在于,包括以下步骤:
1)对应于待定位目标所在场景的位置,固定设置双目视觉系统,对双目视觉系统进行标定,并训练卷积神经网络;
2)通过标定后的双目视觉系统对待定位目标所在场景进行同步拍摄,获取待定位目标所在场景同一时刻的左影像和右影像;
3)根据训练后的卷积神经网络,对获取的左影像和右影像进行特征提取,确定待定位目标分别在左影像和右影像的区域;
4)对待定位目标分别在左影像和右影像中的区域进行匹配,使得左影像和右影像中的同名区域为同一待定位目标;
5)根据左影像和右影像中的同名区域,确定每一待定位目标的精匹配特征点集;
6)根据每一待定位目标的精匹配特征点集,确定对应待定位目标的三维坐标。
2.如权利要求1所述的一种基于双目视觉的目标快速定位方法,其特征在于,所述步骤1)的具体过程为:
1.1)对应于待定位目标所在场景的位置,在静止平台或运动平台上固定连接双目视觉系统,其中,双目视觉系统包括左相机和右相机;
1.2)对双目视觉系统进行标定;
1.3)对待定位目标进行数据采集,训练卷积神经网络。
3.如权利要求2所述的一种基于双目视觉的目标快速定位方法,其特征在于,所述步骤1.2)的具体过程为:
1.2.1)建立以左相机光心为原点的工作坐标系Oc-XcYcZc,其中,该工作坐标系为右手坐标系,深度方向为Zc轴,Xc轴与Yc轴分别平行于影像的x轴与y轴,控制场包括已知三维坐标的多个控制点;
1.2.2)通过左相机和右相机对控制场中的控制点进行拍摄,提取控制点分别在左相机和右相机拍摄影像上的成像特征点,建立控制点三维坐标与二维影像坐标之间的映射关系;
1.2.3)根据建立的映射关系,求解左相机和右相机的内部参数和畸变参数,以及右相机相对于左相机的系统结构参数。
4.如权利要求3所述的一种基于双目视觉的目标快速定位方法,其特征在于,所述步骤3)的具体过程为:
3.1)训练后的卷积神经网络包括卷积层、池化层和特征的分类层;
3.2)将同一时刻的左影像和右影像同时输入至训练后的卷积神经网络,卷积神经网络的多层网络结构对输入的影像不断进行特征提取,通过分类层输出待定位目标的识别结果以及待定位目标的区域位置和范围,其中,左影像通过卷积神经网络特征提取后的M个待定位目标及其对应的区域集为TL:{TL1,TL2,…,TLM},TL1~TLM表示左影像识别的待定位目标类别及其对应的区域;右影像通过卷积神经网络特征提取后的N个待定位目标及其对应的区域集为TR:{TR1,TR2,…,TRN},其中,TR1~TRN表示右影像识别的待定位目标类别及其对应的区域;区域由(x,y,w,h)表示,分别为区域的左上顶点的图像坐标以及矩形的宽和高。
5.如权利要求4所述的一种基于双目视觉的目标快速定位方法,其特征在于,所述步骤4)中当左影像和右影像中的待定位目标数量相同时,根据待定位目标的区域位置中左上顶点的x坐标大小,或者待定位目标的区域面积的大小,对待定位目标分别在左影像和右影像中的区域进行匹配,具体过程为:
根据待定位目标的区域位置中左上顶点的x坐标大小,或者待定位目标的区域面积的大小,对左影像的区域集TL进行排序,得到排序后的区域集;
根据待定位目标的区域位置中左上顶点的x坐标大小,或者待定位目标的区域面积的大小,对右影像的区域集TR进行排序,得到排序后的区域集;
排序后的区域集中同一序号名称代表的区域为同一待定位目标。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院空天信息创新研究院,未经中国科学院空天信息创新研究院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010407645.2/1.html,转载请声明来源钻瓜专利网。