[发明专利]基于路径连贯性函数的星空背景下的目标跟踪方法和装置在审
申请号: | 201810771636.4 | 申请日: | 2018-07-13 |
公开(公告)号: | CN109063602A | 公开(公告)日: | 2018-12-21 |
发明(设计)人: | 高昆;吴穹;庄幽文;豆泽阳;张廷华;华梓铮 | 申请(专利权)人: | 北京理工大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/40;G06T7/254 |
代理公司: | 北京晟睿智杰知识产权代理事务所(特殊普通合伙) 11603 | 代理人: | 于淼 |
地址: | 100081 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 连贯性 目标跟踪 待处理图像 方法和装置 轮廓数据 星空背景 虚假目标 疑似目标 去除 形态学 无迹卡尔曼滤波 混合高斯模型 中值滤波法 准确度 处理图像 待定目标 偏差函数 运动轨迹 噪声干扰 真实目标 背景帧 开运算 帧间差 算法 | ||
1.一种基于路径连贯性函数的星空背景下的目标跟踪方法,其特征在于,包括:
接收待处理图像;
采用中值滤波法对所述待处理图像进行预处理,去除噪声干扰;
对经过所述中值滤波法预处理后的所述待处理图像,通过混合高斯模型建立背景帧;
根据所有背景帧中的相邻的两帧背景帧,采用帧间差分算法去除背景,获取所述待处理图像中的所有动目标;
通过形态学开运算获取所有所述动目标的轮廓数据;其中,所有所述动目标的轮廓数据包括所有所述动目标的轮廓上的每一个像素点的坐标以及每一个像素点所对应的灰度值;
对于所有所述动目标,将所有所述动目标的轮廓数据输入无迹卡尔曼滤波模型,计算所有所述动目标的状态方程、协方差方程和滤波增益,获取所述动目标的运动轨迹,得到疑似目标,所述疑似目标为所述动目标的运动轨迹上的目标点;
计算所述疑似目标的路径连贯性函数值,当所述路径连贯性函数值大于预设的第一阈值时,判定所述疑似目标为虚假目标;当所述路径连贯性函数值小于等于所述预设的第一阈值时,判定所述疑似目标为待定目标;
通过预设的偏差函数模型计算所述待定目标的偏差函数,当所述待定目标的偏差函数值大于预设的第二阈值时,判定所述待定目标为虚假目标;当所述待定目标的偏差函数值小于等于所述预设的第二阈值时,判定所述待定目标为真实目标。
2.根据权利要求1所述的基于路径连贯性函数的星空背景下的目标跟踪方法,其特征在于,
采用中值滤波法对所述待处理图像进行预处理,去除噪声干扰进一步为:
采用7*7的模板对所述待处理图像进行中值滤波,并在所述待处理图像的边界处延展预设宽度,获得去噪后的待处理图像。
3.根据权利要求1所述的基于路径连贯性函数的星空背景下的目标跟踪方法,其特征在于,
所述通过混合高斯模型建立背景帧的步骤包括:
对于所述待处理图像中的每一个像素点的灰度值,依次通过所述混合高斯模型进行变换,得到变换后的所述待处理图像中每一个像素点的灰度值p(gt);
所述混合高斯模型为:
其中,gt代表所述像素点的灰度值,ωkt代表权重,μkt与σkt分别为高斯函数的均值与方差,K为所述混合高斯模型中所需的高斯函数的个数;
根据变换后的所述待处理图像中的每一个像素点的灰度值建立背景帧;
在读取到新的所述待处理图像后,根据所述新的待处理图像对所述背景帧进行更新;
对于新的所述待处理图像上所有的像素点中的背景点,采用以下公式进行更新:
将得到的ωkt、μkt、代入到所述混合高斯模型中,其中α与β是学习参数;
对于所述新的待处理图像上所有的像素点中的非背景点,重新建立单高斯模型:
其中,gt2表示所述新的待处理图像的灰度值。
4.根据权利要求3所述的基于路径连贯性函数的星空背景下的目标跟踪方法,其特征在于,
所述采用帧间差分算法去除背景的步骤,进一步为:
根据所有所述背景帧中相邻的两个背景帧,采用预设的帧间差分算法模型去除背景,获取所述背景帧中的所有动目标;
所述预设的帧间差分算法模型为:
Dt(x,y)=P(gt)(x,y)-P(gt-1)(x,y)
其中p(gt)为t时刻的背景帧的灰度值,Dt为差分图像的灰度值,TH为预先设定的阈值,BWt为二值化后的图像灰度值。
5.根据权利要求1所述的基于路径连贯性函数的星空背景下的目标跟踪方法,其特征在于,所述通过形态学开运算获取所有所述动目标的轮廓数据的步骤进一步为:
对于所有所述动目标,利用形态学开运算消除微小动点,平滑动目标的边界,并且不改变动目标的面积,获得所述待处理图像中所述动目标的轮廓数据。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京理工大学,未经北京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810771636.4/1.html,转载请声明来源钻瓜专利网。