[发明专利]基于改进混合高斯模型的运动目标检测方法及装置在审
申请号: | 202010201375.X | 申请日: | 2020-03-20 |
公开(公告)号: | CN111383250A | 公开(公告)日: | 2020-07-07 |
发明(设计)人: | 崔明明;房建东 | 申请(专利权)人: | 内蒙古工业大学 |
主分类号: | G06T7/246 | 分类号: | G06T7/246;G06T5/00;G06K9/62 |
代理公司: | 北京金信知识产权代理有限公司 11225 | 代理人: | 张放 |
地址: | 010051 内蒙古*** | 国省代码: | 内蒙古;15 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 改进 混合 模型 运动 目标 检测 方法 装置 | ||
本发明公开了一种基于改进混合高斯模型的运动目标检测方法及装置,该基于改进混合高斯模型的运动目标检测方法包括:获取视频序列图像,对视频序列图像中的每帧图像进行分块处理,得到多个像素块;根据每帧图像中每个像素块的像素值构建混合高斯模型;将当前帧图像中每个像素块的像素值分别与混合高斯模型进行匹配;根据匹配结果更新混合高斯模型;将当前帧图像中每个像素块的像素值分别与更新后的混合高斯模型进行匹配,以检测运动物体。本发明通过对视频图像进行分块处理,并将像素块的像素值与混合高斯模型进行匹配,减少了模型匹配的运算量,提高了运动物体检测效率;且背景模型的更新速率能够根据当前视频流过的帧数自适应取值。
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种基于改进混合高斯模型的运动目标检测方法及装置。
背景技术
近年来,随着计算机互联网技术的蓬勃发展,人们的日常生活越来越离不开各种智能设备。例如,采用计算机视觉代替人眼去识别视频中的目标,不仅能大大提高工作效率,同时还能解决很多人眼难以解决的问题,因此,视频中运动目标检测算法变得越来越重要,现有运动目标检测算法主要有帧间差分法、背景差分法、背景建模法。其中,背景建模法是使用最广泛的方法,它通过对图像的背景进行建模,并将当前的图像与背景模型比较,根据比较结果确定运动目标。
混合高斯模型作为出色的多模态背景模型之一,通过对视频序列图像中每一个像素点设置多个相互独立的高斯分布与之匹配,使其能够在背景变换复杂、光照不稳定的情形下,成功检测出运动目标,具有准确性、多模性、实时性等优点。但是,混合高斯模型中,视频图像中每一个像素点都需要与多个高斯分布进行匹配,使得计算量大大增加。特别是,在现实生活中,存在一些情况,比如墙面、人们穿的纯色衣服上,在这些位置,会出现一定区域内的像素点都是一样的,如果还将每个像素点都一一与多个高斯模型进行匹配,那么,无形中便增加了更多的运算量。
另外,混合高斯模型的更新速率直接影响着背景更新的速度,反映了该背景模型对当前视频环境的适应程度。如果更新速率的取值过小,则与当前视频中该像素能够相匹配的高斯分布所占比重过小,该参数下的高斯模型便不能很好的起到作用,便会降低背景更新的速度,延长新的背景建模的时间;相反,如果更新速率的取值过大的话,背景模型更新速度过快,则当前视频中的像素点总是能与高斯模型匹配成功,那么将无法继续进行运动物体检测,会出现许多噪声。然而,现有混合高斯模型中,更新速率的取值一般是一个固定不变的值,不能满足实际情况的需要。
发明内容
鉴于现有技术中存在的上述技术问题,本发明实施例所要解决的技术问题是提供一种基于改进混合高斯模型的运动目标检测方法及装置,其能够大大降低混合高斯模型匹配算法的运算量,同时,模型的更新速率能够根据当前视频流过的帧数自适应取值,能够在视频开始之初,迅速完成背景建模,之后为了更好的抑制噪声,逐渐减小更新速率的取值,以解决现有混合高斯模型背景建模法计算量过于庞大、且更新速率取值固定不变的问题。
为了解决上述技术问题,本发明实施例采用了如下技术方案:
一种基于改进混合高斯模型的运动目标检测方法,包括如下步骤:
获取视频序列图像,对视频序列图像中的每帧图像进行分块处理,得到多个像素块;
根据每帧图像中每个像素块的像素值构建混合高斯模型;
将当前帧图像中每个像素块的像素值分别与混合高斯模型进行匹配;
根据匹配结果更新混合高斯模型;
将当前帧图像中每个像素块的像素值分别与更新后的混合高斯模型进行匹配,以检测运动物体。
可选地,所述对视频序列图像中的每帧图像进行分块处理,得到像素块,包括:
将所述每帧图像划分为个像素块,其中,L表示每帧图像的长度包括L个像素点,W表示每帧图像的宽度包括W个像素点,每个像素块包括l×w个像素点;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于内蒙古工业大学,未经内蒙古工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010201375.X/2.html,转载请声明来源钻瓜专利网。