[发明专利]一种基于水滴态感知视场融合的单车环视图像实时拼接方法在审
申请号: | 202211077297.2 | 申请日: | 2022-09-05 |
公开(公告)号: | CN115439324A | 公开(公告)日: | 2022-12-06 |
发明(设计)人: | 杨毅;梁浩;朱春晖;董志鹏;孙润东;付梦印 | 申请(专利权)人: | 北京理工大学 |
主分类号: | G06T3/40 | 分类号: | G06T3/40;G06T7/80;G06V10/44;G06V10/75;G06V10/82;G06V20/58 |
代理公司: | 北京理工大学专利中心 11120 | 代理人: | 李微微 |
地址: | 100081 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 水滴 感知 视场 融合 单车 环视 图像 实时 拼接 方法 | ||
1.一种基于水滴态感知视场融合的单车环视图像实时动态拼接方法,其特征在于,包括以下步骤:
步骤S1、设置车辆环视视觉系统,并对车辆环视视觉系统参数进行标定;
步骤S2、令车辆环视视觉系统采用水滴态感知视场模型,其符合一般二次曲面约束,即:
式中,f(p)为与感知深度p有关的视场高度函数;Pvf为在高度为0时的感知深度,Pv为在高度为车辆高度hv时对应的车辆水平感知深度;
建立相机的二维图像坐标系及三维的3D投影坐标系,将相机图像中的像素点一一投影到水滴态三维感知视场模型所在的3D投影坐标系中,则:
当高度为0时,像素点在二维图像坐标系和3D投影坐标系中的对应关系如下:
其中,(x′,y′)表示像素点在二维图像坐标系中坐标,(x,y,z)表示像素在3D投影坐标系中对应的坐标;α,β均为常数,α为抬升系数,β为曲率系数,m表示图像宽度,即像素数;
当高度不为0时,像素点在二维图像坐标系和3D投影坐标系中的对应关系如下:
其中,γ为分辨率调节系数;
根据方程(1)和(2)求解出各个像素点映射至水滴态感知视场的坐标(x,y,z),以及相应的感知深度p;
步骤S3、基于步骤S1标定的车辆环视视觉系统参数以及步骤S2得到的像素点在二维图像坐标系和3D投影坐标系中的对应关系,求解图像坐标系中二维像素点到3D模型所在的D投影坐标系中对应像素的相对运动,建立车辆环视视觉系统的初始参数表;
步骤S4、同步获取车辆环视视觉系统中各个相机的视频数据,并行提取特征点,进行特征匹配,进而更新所述参数表;
步骤S5、基于更新后的所述参数表,将车辆各个相机图像投影在水滴态感知模型上,进而对图像进行拼接。
2.如权利要求1所述的一种基于水滴态感知视场融合的多车环视图像实时动态拼接方法,其特征在于,所述步骤S4中,对各个相机的视频数据进行防抖处理,然后再更新所述参数表。
3.如权利要求1或2所述的一种基于水滴态感知视场融合的多车环视图像实时动态拼接方法,其特征在于,所述水滴态感知视场模型为碗状模型,碗壁为设定类型曲线绕中心轴旋转构成的曲面,碗底为碗壁所包围的圆形,碗底中心为车辆投影在水平面的长方形。
4.如权利要求3所述的一种基于水滴态感知视场融合的多车环视图像实时动态拼接方法,其特征在于,所述设定类型曲线为抛物线、圆弧或其他二次曲线。
5.如权利要求1或2所述的一种基于水滴态感知视场融合的多车环视图像实时动态拼接方法,其特征在于,采用Superpoint架构进行特征点提取。
6.如权利要求1或2所述的一种基于水滴态感知视场融合的多车环视图像实时动态拼接方法,其特征在于,采用SuperGlue架构实现特征匹配。
7.如权利要求1或2所述的一种基于水滴态感知视场融合的多车环视图像实时动态拼接方法,其特征在于,所述车辆环视视觉系统包括4个相机,分别置于车头车牌上部、左后车门骨架中部、车尾车牌上部与右后车门骨架中部。
8.如权利要求1或2所述的一种基于水滴态感知视场融合的多车环视图像实时动态拼接方法,其特征在于,所述车辆环视视觉系统的载体采用阿克曼运动模型车辆。
9.如权利要求1或2所述的一种基于水滴态感知视场融合的多车环视图像实时动态拼接方法,其特征在于,所述相机成像模型采用Scaramuzza提出的泰勒展开式相机成像模型。
10.如权利要求1或2所述的一种基于水滴态感知视场融合的多车环视图像实时动态拼接方法,其特征在于,车辆环视视觉系统的重叠视场朝向载体两侧。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京理工大学,未经北京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211077297.2/1.html,转载请声明来源钻瓜专利网。