[发明专利]一种基于仿生视觉的智能车目标实时检测与定位方法有效
申请号: | 202010721224.7 | 申请日: | 2020-07-24 |
公开(公告)号: | CN111914715B | 公开(公告)日: | 2021-07-16 |
发明(设计)人: | 安成刚;张立国;李巍;李会祥;吴程飞;张志强;王增志;张旗;史明亮 | 申请(专利权)人: | 廊坊和易生活网络科技股份有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06T7/70 |
代理公司: | 北京易捷胜知识产权代理事务所(普通合伙) 11613 | 代理人: | 齐胜杰 |
地址: | 065700 河北省*** | 国省代码: | 河北;13 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 仿生 视觉 智能 目标 实时 检测 定位 方法 | ||
1.一种仿生视觉的智能车目标实时检测与定位方法,其特征在于,包括:
步骤S1、实时获取智能车的多目成像装置中各不同焦距镜头的图像;
步骤S2、检测每一镜头的图像中各目标的类别及位置信息;
步骤S3、以焦距最小的镜头的图像为基准图像,根据不同焦距镜头对应的物象空间齐次坐标系变换关系,将基准图像划分为共视区和非共视区;
步骤S4、针对每一图像的共视区,采用双目异焦距立体视觉重建方法对共视区中的目标进行三维重建定位,获得基准图像中共视区所有目标的三维定位信息及类别标签语义信息;
针对基准图像的非共视区,根据该图像所属摄像装置的第一视角划分上下左右四个区域,以透视网格划分的方式获取每一非共视区中目标的角度定位信息;
所述三维定位信息及类别标签语义信息和非共视区对应的角度定位信息构建用于智能车的具有语义信息的矢量地图;
所述步骤S4,包括:
S4-1、根据下述的两像面坐标关系式(A1)确定建立多目标图像的每一目标在各图像中坐标的一一映射关系;
α1和α2,β1和β2分别表示图像水平轴u和垂直轴v的尺度因子,也称为归一化焦距,l为基线距离;
S4-2、借助于多个分辨率和焦距不同的相机,并依据双目平行视觉模型,检测空间点M这个目标在三维空间的深度信息Z值;
具体地,空间点M的坐标(X,Y,Z)为:
其中,两相机镜头的焦距f1、f2以及基线距离l属于预先标定的参数,通过公式(A1)获取像素坐标的对应关系x1、y1和x2、y2;
S4-3、根据上述空间点M的三维坐标关系式(A2)在基准图像的共视区对检测目标进行重建,并标记检测目标区域的平均深度值。
2.根据权利要求1所述的方法,其特征在于,所述步骤S2包括:
采用YOLOv5目标实时检测算法检测每一镜头的图像中各目标的类别及位置信息;
和/或,所述目标包括:红绿灯、限速牌、行人、小动物、车辆或车道线;
所述类别及位置信息包括:目标在各图像中的位置信息、尺寸信息和类别信息。
3.根据权利要求1所述的方法,其特征在于,所述步骤S3包括:
在所述焦距镜头大于等于3个时,将不同焦距镜头划分为长焦距镜头和短焦距镜头;
针对短焦距镜头,以短焦距镜头中焦距最小镜头的图像作为基准图像一,将短焦距镜头中其他镜头视场角对应基准图像一的成像区间划分为共视区一和非共视区一;
针对长焦距镜头,以长焦距镜头中焦距最小的镜头的图像作为基准图像二,将长焦距镜头中其他镜头视场角对应基准图像二的成像区间划分为共视区二和非共视区二。
4.根据权利要求3所述的方法,其特征在于,所述步骤S4包括:
采用双目异焦距立体视觉重建方法,获取基准图像一中共视区一所有目标的三维定位信息及类别标签语义信息;
以透视网格划分的方式,获取基准图像一中非共视区一中各目标的角度定位信息;
采用双目异焦距立体视觉重建方法,获取基准图像二中共视区二所有目标的三维定位信息及类别标签语义信息;
以透视网格划分的方式,获取基准图像二中非共视区二中各目标的角度定位信息;
相应地,所述方法还包括步骤S5,
步骤S5包括:
将获取的所有三维定位信息及类别标签语义信息、所有的角度定位信息与多目成像装置中的三维点云数据进行融合,构建用于智能车的三维语义地图。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于廊坊和易生活网络科技股份有限公司,未经廊坊和易生活网络科技股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010721224.7/1.html,转载请声明来源钻瓜专利网。
- 上一篇:点阵本交互方法
- 下一篇:一种手语词的识别方法