[发明专利]一种基于GroundTruth的车体语言交互数据融合方法及系统有效
申请号: | 201911320833.5 | 申请日: | 2019-12-19 |
公开(公告)号: | CN111169473B | 公开(公告)日: | 2021-06-25 |
发明(设计)人: | 马楠;田宇翔;逄桂林;李佳洪;陈丽;张国平 | 申请(专利权)人: | 北京联合大学 |
主分类号: | B60W30/09 | 分类号: | B60W30/09;B60W30/18;B60W40/06;B60W40/105;B60W50/00;G06K9/62 |
代理公司: | 北京驰纳智财知识产权代理事务所(普通合伙) 11367 | 代理人: | 谢亮 |
地址: | 100101 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 groundtruth 车体 语言 交互 数据 融合 方法 系统 | ||
1.一种基于GroundTruth的车体语言交互数据融合方法,包括通过TCP/UDP协议获取GroundTruth的数据包信息,其特征在于,还包括以下步骤:
步骤1:对所述数据包信息进行过滤,将分散的有效数据合并为一条字符串类型的数据包;所述步骤1包括以下子步骤:
步骤11:车道中心线数据过滤计算;
步骤12:移动物体过滤计算;
步骤13:前方车辆分析,包括使用跟车模型算法计算当前车辆与移动物体的速度差以及预测移动物体下一时刻的坐标,所述速度差的公式为ΔV=VT-Vs,其中,Vs为本车速度,VT为目标车速度,所述预测移动物体下一时刻的坐标的公式为:
其中,τ为加速度变化率,T为制动周期,T=Tend-Tstart,Tstart为制动开始时刻,Tend为制动结束时刻,t为刷新频率,L为两车距离,Lx为车x轴方向的偏差距离,a0、a1和a2为多项式系数,dT为积分系数;
步骤14:与周边环境交互的分析;
步骤2:将所述数据包中的数据融合后发送给决策程序。
2.如权利要求1所述的基于GroundTruth的车体语言交互数据融合方法,其特征在于,所述数据包数据包括车道数据、车道线数据和移动物体数据中至少一种。
3.如权利要求2所述的基于GroundTruth的车体语言交互数据融合方法,其特征在于,所述车道数据包括整个路面上一段距离的车道信息,包括当前车道、相邻车道和相邻车道外的有效车道数据,不包括反向车道数据。
4.如权利要求2所述的基于GroundTruth的车体语言交互数据融合方法,其特征在于,所述车道线数据包括每条车道线ID和车道线坐标集合。
5.如权利要求2所述的基于GroundTruth的车体语言交互数据融合方法,其特征在于,所述移动物体包括物体ID、物体坐标、物体速度和物体转角,道路上的所述移动物体不限定为当前可视区域,车辆前方以及车辆后方的移动物体均包含在内。
6.如权利要求5所述的基于GroundTruth的车体语言交互数据融合方法,其特征在于,所述步骤11包括把每一段车道中的车道中心线坐标点离线保存在本地,对数据进行去重和降噪处理,过滤掉重复以及无效的车道中心线的坐标点。
7.如权利要求6所述的基于GroundTruth的车体语言交互数据融合方法,其特征在于,所述步骤11还包括在去重降噪之后对于先验地图车道中心线缺失遗漏的点,利用七次多项式拟合,将所有坐标用一个七次多项式来表示,然后利用三阶B样条差值方法在先验地图中插入n个等间距的点,得到一整条完整并且无缺失的先验地图。
8.如权利要求7所述的基于GroundTruth的车体语言交互数据融合方法,其特征在于,所述步骤12包括对移动物体坐标与所述先验地图的每一个坐标点去做Collisions检测碰撞。
9.如权利要求8所述的基于GroundTruth的车体语言交互数据融合方法,其特征在于,利用先验地图中每一个坐标点与移动物体坐标进行距离计算,当所述距离小于移动物体车辆宽度时,说明当前移动物体参照车道中心线坐标行驶。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京联合大学,未经北京联合大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911320833.5/1.html,转载请声明来源钻瓜专利网。