[发明专利]一种基于GIoU的3D目标边界框的估计系统在审
申请号: | 202010805891.3 | 申请日: | 2020-08-12 |
公开(公告)号: | CN112053374A | 公开(公告)日: | 2020-12-08 |
发明(设计)人: | 杨武;孟涟肖;唐盖盖;苘大鹏;吕继光 | 申请(专利权)人: | 哈尔滨工程大学 |
主分类号: | G06T7/13 | 分类号: | G06T7/13;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 150001 黑龙江省哈尔滨市南岗区*** | 国省代码: | 黑龙江;23 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 giou 目标 边界 估计 系统 | ||
1.一种基于GIoU的3D目标边界框的估计系统,其特征在于:包括雷达点云预处理模块、2D图像预处理模块以及基于GIoU的多源融合模块;所述的雷达点云预处理模块将输入的雷达点云数据转换为固定维度的数字特征表示形式,并将雷达点云数据的数字特征传递到基于GIoU的多源融合模块中;所述的2D图像预处理模块将输入的2D图像数据转换为固定维度的数字特征表示形式,并将2D图像数据的数字特征传递到基于GIoU的多源融合模块中;所述的基于GIoU的多源融合模块将雷达点云数据的数字特征和2D图像数据的数字特征融合成3D目标边界框估计结果,具体为预测的3D边界框的8个顶点的坐标BP=(xP1,yP1,zP1,…,xP8,yP8,zP8);
所述的基于GIoU的多源融合模块是Dense神经网络模型,以GIoU LOSS作为损失函数;所述的GIoU LOSS计算方法为:
步骤1:输入真实的3D边界框的8个顶点坐标BT=(xT1,yT1,zT1,…,xT8,yT8,zT8);
步骤2:计算真实的3D边界框的长度LT、宽度WT和高度HT;计算预测的3D边界框的长度LP、宽度WP和高度HP;
步骤3:选取真实的3D边界框和预测的3D边界框中,中心点距离原点较近的3D边界框,获取该3D边界框的右上角顶点坐标MAX=(xMAX,yMAX,zMAX),获取中心点距离原点较远的3D边界框的左下角顶点坐标MIN=(xMIN,yMIN,zMIN);
步骤4:选取真实的3D边界框和预测的3D边界框的所有顶点的坐标中,最小的x、y、z值xMIN、yMIN、zMIN以及最大的x、y、z值xMAX、yMAX、zMAX;
步骤5:计算可以包围真实的3D边界框和预测的3D边界框的最小包围框Bc的长度LC、宽度WC和高度HC;
LC=xMAX-xMIN
WC=yMAX-yMIN
HC=zMAX-zMIN
步骤6:计算GIoU的值;
其中,VT为真实的3D边界框的体积,VT=LT*WT*HT;VP为预测的3D边界框的体积,VP=LP*WP*HP;Vc为Bc的体积,Vc=Lc*Wc*Hc;
步骤7:计算损失函数GloU LOSS的值;
GIoU LOSS=1-GIoU。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨工程大学,未经哈尔滨工程大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010805891.3/1.html,转载请声明来源钻瓜专利网。