[发明专利]一种车载视觉实时多目标航向角估计方法及装置有效
申请号: | 202010054543.7 | 申请日: | 2020-01-17 |
公开(公告)号: | CN111291786B | 公开(公告)日: | 2022-10-25 |
发明(设计)人: | 李克强;熊辉;王建强;郭宇昂;林学武;许庆 | 申请(专利权)人: | 清华大学 |
主分类号: | G06V10/774 | 分类号: | G06V10/774;G06V10/764;G06V20/64;G06V20/58;G06V10/82;G06N3/04;G06T7/285 |
代理公司: | 北京汇智胜知识产权代理事务所(普通合伙) 11346 | 代理人: | 石辉;赵立军 |
地址: | 10008*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 车载 视觉 实时 多目标 航向 估计 方法 装置 | ||
1.一种车载视觉实时多目标航向角估计方法,其特征在于,包括:
步骤1,采用离线数据集事先训练好的单阶段二维目标检测模型YOLOv3提取输入的单目单帧图像的深度卷积神经网络特征图;
步骤2,在所述步骤1提取得到的深度卷积神经网络特征图上进行二维目标的优化定位,并对车辆、行人和骑车人三类交通道路参与者多目标进行分类优化,输出目标框所对应目标的二维位置和类别;
步骤3,根据所述步骤1提取得到的深度卷积神经网络特征图、以及所述步骤1得到的目标的二维位置和类别,通过直接回归该目标的连续观测角度α,分别得到观测角度α的正弦值sinα和余弦值cosα,考虑角度的周期性同时平方和约束正弦值sinα和余弦值cosα,最终获得目标相对自车的观测角度α的唯一确定值,目标相对自车的观测角度α为目标的运动方向与横轴x’的正方向之间的夹角,x’轴在水平面内与z’轴相垂直,正方向为自车前进方向的右侧方向;z’轴是自车的几何中心O与目标的几何中心O’之间的连线,正方向为自车指向目标的方向;
步骤4,根据步骤3获得的观测角度α,利用下式(1)计算得到目标的航向角
式(1)中,x3d为目标框在世界坐标系中的横向位置,z3d为目标框在世界坐标系中的纵向位置。
2.如权利要求1所述的车载视觉实时多目标航向角估计方法,其特征在于,所述步骤2具体包括:
根据所述深度卷积神经网络特征图,获得每一个真实目标附近同时检测出的多个可能目标框;
根据每一个所述可能目标框与基准目标框的重叠率,从每一个真实目标的多个可能目标框中筛选出重叠率最高的目标框,作为对应目标的最终目标框,并依据最终目标框所对应的目标定位信息,该目标定位信息包括目标的二维位置;
根据所述最终目标框对应的目标定位信息中的置信度,采用层级分类策略预测目标所属大类和小类的条件概率,通过将该置信度、所属大类的条件概率和小类的条件概率相乘获得的乘积,作为目标所属小类的绝对概率。
3.如权利要求2所述的车载视觉实时多目标航向角估计方法,其特征在于,采用层级分类策略预测目标所属大类的方法包括:
步骤21,根据所述的深度卷积神经网络特征图和目标定位信息中的最终目标框的几何中心在图像坐标系中的横纵坐标位置和置信度,该置信度为第一层动态目标节点的绝对概率Pr(Object),辨识该目标框所对应的目标是否属于车辆、行人和骑车人三类动态目标(Object),如果是,则将该目标框以外的图像部分视为背景;
步骤22,在动态目标(Object)中合并类间差距小的目标类别,并辨识出合并后得到目标类别是否属于人(Person)大类或车辆(Car)大类,并输出第二层目标的条件概率,其中,如果辨识结果属于人(Person)大类,则第二层目标的条件概率为人节点的条件概率Pr(Person|Object);如果辨识结果属于车辆(Car)类,则所述第二层目标的条件概率为车节点的条件概率Pr(Car|Object)。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学,未经清华大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010054543.7/1.html,转载请声明来源钻瓜专利网。