[发明专利]一种基于目标状态预估的水下图像预分割方法有效
申请号: | 201910479009.8 | 申请日: | 2019-06-04 |
公开(公告)号: | CN110211148B | 公开(公告)日: | 2022-09-27 |
发明(设计)人: | 张国成;唐同泽;孙玉山;王元庆;张宸鸣;王占缘;马陈飞;吴新雨;周天;于鑫 | 申请(专利权)人: | 哈尔滨工程大学 |
主分类号: | G06T7/215 | 分类号: | G06T7/215;G06T7/277 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 150001 黑龙江省哈尔滨市南岗区*** | 国省代码: | 黑龙江;23 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 目标 状态 预估 水下 图像 分割 方法 | ||
1.一种基于目标状态预估的水下图像预分割方法,其特征是包括如下步骤:
第一步,在水下机器人状态数据中,获取图像采集时刻的状态数据,开展机器人状态数据与图像采集数据的时间对准融合,得到当前时刻即n时刻、世界坐标下水下机器人的状态向量其中下标G表示相对于世界坐标系,下标n表示第n时刻,上标P表示水下机器人,为n时刻时世界坐标系下水下机器人的位置向量,为n时刻时世界坐标系下水下机器人的姿态向量;
第二步,从水下目标位置量测子系统中获取水下静态目标的状态向量其中上标T表示水下静态目标物,记表示当前节拍即n时刻所在节拍中世界坐标系下水下目标的位置坐标的量测值,为当前节拍中目标置信度,和为当前节拍中水下目标的宽和高;
第三步,基于建立的水下机器人的状态方程利用卡尔曼滤波算法预测下一时刻即n+1时刻下,世界坐标系下水下机器人的状态向量其中A为水下机器人系统的状态转移矩阵,B为系统的输入转移矩阵,为系统的输入向量;
第四步,根据第三步预测结果以及当前节拍中水下静态目标的状态向量计算得到水下静态目标在图像中的位置其中下标pix表示相对像素坐标系;
第五步,根据当前节拍中目标置信度及目标宽高估算得到n+1时刻时,水下静态目标在像素坐标系中的大小,以宽高表示其大小;
第六步,根据第四步及第五步中获得的水下静态目标位置宽高计算图像中预分割位置向量其中表示预分割矩形的左上角坐标,表示预分割矩形的右下角坐标。
2.根据权利要求1所述的基于目标状态预估的水下图像预分割方法,其特征是:在第四步中按下式估算出下一时刻即n+1时刻水下目标在像素坐标系(Opix-uv)的位置向量其中下标P表示相对于随体坐标系,
其中,S表示摄像头的内参矩阵,表示由于姿态向量引起的坐标旋转矩阵,表示相机坐标系相对于随体坐标系的平移偏移向量,表示由相机坐标系相对于随体坐标系的旋转偏移引起的坐标旋转矩阵。
3.根据权利要求2所述的基于目标状态预估的水下图像预分割方法,其特征是第五步具体包括:
(1)计算世界坐标下水下目标外接矩形的角点GA、GB、GC、GD的坐标;
(2)由公式计算像素坐标系下点pixA、pixB、pixC、pixD的坐标;
(3)在像素坐标系中,由平面上两点的距离公式计算得到水下目标的宽和高
4.根据权利要求3所述的基于目标状态预估的水下图像预分割方法,其特征是第六步包括:
(1)将水下目标的置信度宽和高代入下式估算预分割区域的宽w.和高h。
式中C1、C2为常数;
(2)根据(1)中结果计算图像中预分割位置向量pixXn+1。
5.根据权利要求4所述的基于目标状态预估的水下图像预分割方法,其特征是:第六步中在完成水下图像的预分割后,将分割后的图片传递给视觉识别量测系统计算出n+1时刻水下静态目标的状态向量供下一节拍的迭代计算使用。
6.根据权利要求5所述的基于目标状态预估的水下图像预分割方法,其特征是:所涉及的坐标系具体为:
(1)世界坐标系(OG-XGYGZG):三维直角坐标系,为描述空间中的位置而引入,原点位置及坐标轴一般视情况而定,单位:毫米;
(2)随体坐标系(OP-XPYPZP):与水下机器人固连,原点位于机器人重心,XP轴垂直于中横剖面指向机器人前部,YP轴与ZP轴在中横剖面上且互相垂直,YP轴指向机器人底部,ZP轴指向机器人右侧,单位:毫米;
(3)相机坐标系(OC-XCYCZC):原点位于摄像机镜头的光心,ZC与光轴重合,指向相机前方,XC、YC轴与YP、ZP轴平行同向,单位:毫米;
(4)图像坐标系(O-XY):平面直角坐标,原点为摄像机光轴与感光元件的交点,X、Y轴与XC、YC轴平行同向,单位:毫米;
(5)像素坐标系(Opix-uv):平面直角坐标,原点为图像左上角,u、v轴与X、Y轴平行同向,单位:像素。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨工程大学,未经哈尔滨工程大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910479009.8/1.html,转载请声明来源钻瓜专利网。