[发明专利]多传感器融合的测距方法有效
申请号: | 202010496208.2 | 申请日: | 2020-06-03 |
公开(公告)号: | CN111830519B | 公开(公告)日: | 2023-07-07 |
发明(设计)人: | 单丰武;李雪;范圣印;陈立伟;姜筱华;熊敏;龚朋朋;弥博文;朱祖伟 | 申请(专利权)人: | 江西江铃集团新能源汽车有限公司;北京易航远智科技有限公司 |
主分类号: | G01S17/08 | 分类号: | G01S17/08;G01S17/89;G01S7/497 |
代理公司: | 北京庚致知识产权代理事务所(特殊普通合伙) 11807 | 代理人: | 李伟波 |
地址: | 330000 江西省南昌市*** | 国省代码: | 江西;36 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 传感器 融合 测距 方法 | ||
1.一种多传感器融合的测距方法,其特征在于,包括以下步骤:
步骤一、联合标定,获取相机的内参和相机到雷达的转换矩阵,获取雷达目标数据和图像目标数据;
步骤二、将雷达目标框信息投影到图像坐标系下,匹配雷达目标和图像目标;
步骤三、保持车辆在平坦的直线路线上行驶一定距离,得到雷达目标和图像目标匹配成功的组,使用匹配成功组的雷达测距结果和视觉测距结果拟合视觉系统测距误差曲线;
步骤四、使用匹配成功组的雷达测距结果和系统误差校正后视觉测距结果计算俯仰角;
步骤五、对多组俯仰角结果进行加权融合;
步骤六、根据俯仰角校正视觉测距结果;
其中,
当存在多组匹配成功的目标对时,根据距离远近对结果进行加权融合,作为最终的俯仰角检测结果,当共有n组匹配成功目标对时,第i个目标雷达检测距离结果为Dilidar,使用第i个目标计算的车辆俯仰角为θi,则第i个目标权重为:
其中函数f()为权值函数;
其中,weight(i)为第i个目标权重,θi为使用第i个目标计算的车辆俯仰角;
通过最终计算得出的俯仰角,对相机测距结果进行校正,针对图像视野范围内的所有目标,每个目标的最终检测距离为:
其中H为相机距离地面的高度,Dimage为当前目标的图像检测距离结果,θresult为最终俯仰角计算结果。
2.根据权利要求1所述的多传感器融合的测距方法,其特征在于,
相机的内参参数表示为内参矩阵K:
其中fx、fy表示相机x,y方向焦距,px、py表示相机中心点相对于左上角偏移。
3.根据权利要求1所述的多传感器融合的测距方法,其特征在于,
相机到雷达的转换矩阵M为:
其中rij(i,j=1,2,3)表示相机坐标系相对于雷达坐标系的旋转矩阵的元素,向量[t1,t2,t3]T表示相机坐标系相对于雷达坐标系的平移关系,其中T为转置符号。
4.根据权利要求1所述的多传感器融合的测距方法,其特征在于,
所述获取雷达目标数据和图像目标数据包括:使用行驶过程中实时获取经过时间同步的雷达目标数据和图像目标数据,分别包括目标框信息和距离信息;所述雷达目标数据通过雷达获取,所述图像目标数据通过相机获取;所述雷达包括激光雷达或毫米波雷达;所述相机包括RGB相机、红外相机或深度相机。
5.根据权利要求1所述的多传感器融合的测距方法,其特征在于,
所述匹配雷达目标和图像目标,其匹配项包括目标框中心点位置、目标框重叠区域面积比例、横向距离差和纵向距离差,当上述四个匹配项均小于各自的阈值时认为目标匹配成功。
6.根据权利要求1所述的多传感器融合的测距方法,其特征在于,
视觉测距结果和雷达测距结果的误差如公式(1)所示:
其中,ki为拟合后第i个目标视觉测距结果和雷达测距结果的系统误差;Dilidar为第i个目标雷达检测距离结果;H代表相机距离地面高度,f代表相机焦距,yi为图像中第i个目标的目标框底边距离图像中心的竖直方向距离。
7.根据权利要求6所述的多传感器融合的测距方法,其特征在于,
使用多组目标分别计算视觉测距结果和雷达测距结果的误差ki。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于江西江铃集团新能源汽车有限公司;北京易航远智科技有限公司,未经江西江铃集团新能源汽车有限公司;北京易航远智科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010496208.2/1.html,转载请声明来源钻瓜专利网。
- 上一篇:基于视觉的目标距离测算方法
- 下一篇:一种保证数据隐私和业务保密性的分析方法