[发明专利]一种路侧激光雷达超视距感知方法在审
申请号: | 202210176350.8 | 申请日: | 2022-02-25 |
公开(公告)号: | CN114565901A | 公开(公告)日: | 2022-05-31 |
发明(设计)人: | 姚晗;方炜豪;王文夫;叶山顶;傅永健;马瑞凯;林湖;潘之杰 | 申请(专利权)人: | 浙江大学 |
主分类号: | G06V20/56 | 分类号: | G06V20/56;G06V10/46;G06V10/80;G06V10/82;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 杭州求是专利事务所有限公司 33200 | 代理人: | 郑海峰 |
地址: | 310058 浙江*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 激光雷达 视距 感知 方法 | ||
本发明公开了一种路侧激光雷达超视距感知方法。激光雷达获取的原始点云数据,对点云数据进行预处理获取点云特征图;然后使用主干网络进行进一步的特征提取,所述的主干网络基于EfficientDet网络,并在EfficientDet网络的BiFPN层后增加了MoSF融合层,MoSF融合层将BiFPN层输出的多尺度特征图融合为单一尺度的特征图;最后使用五个检测头的多任务模块进行处理;其中四个检测头用于目标检测,输出目标类别、XYZ三维坐标系的检测框、物体方向角;一个检测头用于输出运动预测的结果,为物体未来的坐标。本发明深度学习网络可以直接获取目标检测和运动预测两项感知结果。克服了现有技术中通过目标检测、目标追踪和运动预测的多模块耦合的感知流程,简化了感知的过程。
技术领域
本发明属于智能交通领域,具体涉及一种路侧激光雷达超视距感知方法。
背景技术
自动驾驶是当前飞速发展的一项技术,但完全基于车辆自身的自动驾驶技术存在若干瓶颈:1.安装于车辆的传感器视角有限,障碍物遮挡时存在感知盲区;2.感知成本高昂,大量的传感器需要极高的成本和算力。基于此,将自动驾驶车辆的部分感知能力迁移到路侧,是一种解决上述问题的手段。路侧感知平台获取并分发感知结果,使车辆获得超视距的感知能力。
路侧感知平台的一项重要感知手段为基于激光雷达的感知。激光雷达扫描周边环境,从而获取对周围环境的精确描述——点云数据。但是环境感知的整体流程与激光雷达算法各自存在问题:1.环境感知模块的流程一般分为目标检测、目标跟踪、运动预测三个连续的子模块,子模块耦合至一起,单个子模块未输出正确结果将导致后续模块失效;2.激光雷达生成的点云是无序的非结构化大规模数据,因此如何预处理点云数据、如何采取高效的算法对点云数据进行环境感知,存在诸多问题;3.感知需要的算力需求较高,因此计算平台的功耗较大,且一般的计算平台难以满足实时性要求。
发明内容
为了克服现有技术中的不足,本发明提供了一种路侧激光雷达超视距感知方法。
本发明的技术方案如下:
1.一种路侧激光雷达超视距感知方法,其特征在于,包括如下步骤:
1)激光雷达获取的原始点云数据,对点云数据进行预处理获取点云特征图;
2)在预处理获取点云特征图后,使用主干网络进行进一步的特征提取,所述的主干网络基于EfficientDet网络,并在EfficientDet网络的BiFPN层后增加了MoSF融合层,MoSF融合层将BiFPN层输出的多尺度特征图融合为单一尺度的特征图;
3)在主干网络提取出最终的特征图以后,使用五个检测头的多任务模块进行处理;其中四个检测头用于目标检测,输出目标类别、XYZ三维坐标系的检测框、物体方向角;一个检测头用于输出运动预测的结果,为物体未来的坐标。
2.如权利要求1所述的路侧激光雷达超视距感知方法,其特征在于,所述的对点云数据进行预处理获取点云特征图,具体为:
对于激光雷达获取的原始点云数据,首先进行去地面过滤,减少来自地面的点云干扰;再对剩余的点云数据以俯视视角进行投影,并进行格栅化处理,使点云投影至Z平面的格栅上,再对每个格栅内的点云进行特征提取。
3.根据权利要求2所述的路侧激光雷达超视距感知方法,其特征在于,除了对当前帧的点云进行特征提取,还对前四帧的点云进行特征提取;
并将前四帧与当前帧,共计五帧点云进行格栅化,提取每个格栅的点云高度、密度、反射强度特征。从而获取点云特征图。
4.根据权利要求1所述的路侧激光雷达超视距感知方法,其特征在于,所述的步骤2)具体为:
首先使用EfficientDet网络进行特征提取,EfficientDet的BiFPN层会输出64*64、32*32、16*16、8*8、4*4五个不同尺度的特征图;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江大学,未经浙江大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210176350.8/2.html,转载请声明来源钻瓜专利网。