[发明专利]基于高斯混合背景模型的运动目标检测方法及装置在审
申请号: | 201910287686.X | 申请日: | 2019-04-11 |
公开(公告)号: | CN109949337A | 公开(公告)日: | 2019-06-28 |
发明(设计)人: | 贾振红;左军辉 | 申请(专利权)人: | 新疆大学 |
主分类号: | G06T7/20 | 分类号: | G06T7/20;G06T5/00;G06T5/10;G06T5/20 |
代理公司: | 北京鼎佳达知识产权代理事务所(普通合伙) 11348 | 代理人: | 王伟锋;张小勇 |
地址: | 830046 新疆维*** | 国省代码: | 新疆;65 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 背景模型 高斯混合 运动目标检测 帧图像 滤波图像 前景像素 运动目标 去噪 视频图像像素 图像识别技术 小波阈值去噪 动态背景 数学形态 像素分析 像素更新 噪声干扰 闭运算 检测 | ||
本发明实施例是关于一种基于高斯混合背景模型的运动目标检测方法及装置,涉及图像识别技术领域主要解决的技术问题是高斯混合背景模型法对运动目标检测的准确性不高。主要采用的技术方案为:基于高斯混合背景模型的运动目标检测方法包括:基于视频图像像素建立高斯混合背景模型;基于当前帧图像像素更新高斯混合背景模型的参数,并对当前帧图像像素分析获得前景像素;采用小波阈值去噪方法对所述前景像素进行去噪生成第一滤波图像;采用数学形态中的闭运算对所述第一滤波图像进行去噪生成当前帧图像的运动目标。相对于现有技术,可以消除动态背景下产生的噪声干扰,使得检测到的运动目标更加完整,从而提高运动目标检测准确性。
技术领域
本发明实施例涉及图像识别技术领域,特别是涉及一种基于高斯混合背景模型的运动目标检测方法及装置。
背景技术
随着数字化视频技术的发展,人们可以对监控视频中的运动物体进行检测、跟踪、识别和分析等操作。利用这些技术,人们可以快速获得需要检测的运动目标的位置、轨迹以及行为等有效信息。运动目标检测是运动目标跟踪、行为识别和场景描述等技术的基础,检测的结果直接影响后续算法的准确性。因此,如何提高目标检测的准确性和鲁棒性,成为计算机视觉领域的主要研究方向之一。目前,运动目标检测方法主要有:帧间差分法、背景减除法和光流法。
光流法是根据检测到的目标图像的亮度信息进行检测的方法,该方法计算复杂度高,抗干扰能力弱,故而一般不采用。
帧间差分法是用连续视频帧图像进行差分运算,实现运动目标的提取,对背景变化的适应能力比较强,但是检测到的目标存在空洞现象,且对于运动缓慢的目标存在漏检。
背景减除法是使用最广泛的方法,背景减法是先建立背景模型,然后将当前帧图像与背景模型做差来提取运动目标,该方法主要依靠稳定的背景模型来得到比较完整的前景特征,通过比较当前帧和背景模型得到运动目标。高斯混合背景模型法GMM属于背景减法的一种,为最受欢迎的背景减除算法,但是其也存在着在动态背景下运动目标检测的准确性不高的问题。
发明内容
有鉴于此,本发明实施例提供一种基于高斯混合背景模型的运动目标检测方法及装置,主要解决的技术问题是高斯混合背景模型法对运动目标检测的准确性不高。
为达到上述目的,本发明实施例主要提供如下技术方案:
一方面,本发明的实施例提供一种基于高斯混合背景模型的运动目标检测方法,包括:
基于视频图像像素建立高斯混合背景模型;
基于当前帧图像像素更新高斯混合背景模型的参数,并对当前帧图像像素分析获得前景像素;
采用小波阈值去噪方法对所述前景像素进行去噪生成第一滤波图像;
采用数学形态中的闭运算对所述第一滤波图像进行去噪生成当前帧图像的运动目标。
本发明实施例的目的及解决其技术问题还可采用以下技术措施进一步实现。
可选的,前述的基于高斯混合背景模型的运动目标检测方法,其中所述小波阈值去噪方法为小波半阈值去噪方法、小波软阈值去噪方法、小波硬阈值去噪方法中的任意一种。
可选的,前述的基于高斯混合背景模型的运动目标检测方法,其中基于视频图像像素建立高斯混合背景模型,包括:
对所述视频图像划分为M个子区域,M为大于等于2的正整数;
分别求取每个子区域像素的均值;
根据每个子区域像素的均值用多个高斯分布构建每个子区域不同像素的混合高斯模型。
可选的,前述的基于高斯混合背景模型的运动目标检测方法,其中基于当前帧图像像素更新高斯混合背景模型的参数,具体为:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于新疆大学,未经新疆大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910287686.X/2.html,转载请声明来源钻瓜专利网。