[发明专利]基于改进视觉背景提取模型的视频感兴趣区域提取方法有效
申请号: | 201910546553.X | 申请日: | 2019-06-22 |
公开(公告)号: | CN110363197B | 公开(公告)日: | 2023-05-23 |
发明(设计)人: | 郭树强;宋人杰;张元东;姜万昌 | 申请(专利权)人: | 东北电力大学;国网吉林省电力有限公司吉林供电公司 |
主分类号: | G06V10/25 | 分类号: | G06V10/25;G06T7/136;G06T7/194 |
代理公司: | 吉林市达利专利事务所 22102 | 代理人: | 陈传林 |
地址: | 132012 吉*** | 国省代码: | 吉林;22 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 改进 视觉 背景 提取 模型 视频 感兴趣 区域 方法 | ||
本发明是一种基于改进视觉背景提取模型的视频感兴趣区域提取方法,其特点是,包括:提出一种基于时空域的自适应数量阈值确定算法;基于时空域相关性根据视频帧列不同场景对人眼贡献率大小,提出一种基于时空域的自适应距离阈值确定算法;根据自适应数量阈值和自适应距离阈值确定前景分割阶段公式,采用切比雪夫距离衡量当前像素点与背景模型中像素点的差异,根据提出的区域场景复杂度计算公式计算所述场景复杂度获得模型的动态更新方式。能够消除目标空洞并加快消除鬼影,提高模型在动态场景下的适应性和鲁棒性。
技术领域
本发明涉及视频感兴趣区域提取技术领域,一种基于改进视觉背景提取模型的视频感兴趣区域提取方法。
背景技术
随着计算机视觉领域的不断发展,感兴趣区域提取广泛应用于行人检测、目标跟踪等领域。根据人类视觉系统特性表明,人眼对于视频帧中的纹理丰富的区域即感兴趣区域(ROI)关注度更高,如视频中的运动目标,而纹理平坦的区域即非感兴趣区域(RONI)对人眼的贡献率较低。目前,对于图像中的ROI提取方法主要采用视觉注意模型,如Itti模型。Itti模型作为经典的提取模型具有处理视觉信息快、显著度认知能力高等诸多优点。
但Itti模型对ROI的提取主要应用于静态图片,且模型提取过程的计算量较大,不能满足实时性应用需求。目前,针对连续视频帧ROI的提取方法主要采用背景建模算法,背景建模算法具有实时性高、检测目标精确等优点,经典的背景建模算法主要是视觉背景提取模型(VIBE)算法,其显著优势是背景模型简单、计算量小,且具有较好的鲁棒性,在运动目标检测领域应用较为广泛。
VIBE算法提取视频中的运动目标区域较为精确,但模型并不加以区分纹理复杂度高的区域和背景区域,即不能准确提取视频中的ROI,且VIBE算法采用固定的阈值难以适应动态场景变化,采用全局随机更新更新周期方式容易出现目标空洞和虚假目标、消除鬼影时间较长等问题,最终影响检测的精度和效率。
发明内容
本发明的目的是克服了现有VIBE算法存在的不足,提供了一种基于改进视觉背景提取模型的视频感兴趣区域提取方法。在前景分割阶段,基于时空相关性,引入均值绝对偏差(MAD)来表征纹理复杂度,并结合提出的判断准则1和算法1获得动态的自适应数量阈值,适应动态视频场景的变化。基于时空域相关性依据不同场景对人眼贡献率的大小,引入方差并结合提出的算法2获得自适应距离阈值,由自适应数量阈值和自适应距离阈值确定的前景分割模型分割视频帧的ROI和背景区域,消除模型更新阶段误检信息传播的概率。在背景模型更新阶段,引入区域场景复杂度结合判断准则2动态调节模型更新方式,有效消除目标空洞并加快消除鬼影,增强模型对动态场景的适应性和鲁棒性。
本发明的目的是由以下技术方案来实现的:一种基于改进视觉背景提取模型的视频感兴趣区域提取方法,其特征是,它包括以下步骤:
(1)提出一种基于时空域的自适应数量阈值确定算法,所述自适应数量阈值由MAD结合判断准则1和提出的算法1确定。计算当前像素点及其邻域的MAD2和背景模型帧对应位置处的MAD1,基于MAD1和MAD2根据判断准则1对当前帧进行第一步分割,基于MAD1和MAD2采用算法1确定自适应数量阈值。
其中MAD的计算公式为:
判断准则1为:
MAD2为当前像素点与邻域像素点的均值绝对偏差。MAD1为当前像素点与邻域在对应背景模型中对应位置处像素点的均值绝对偏差。
算法1为:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于东北电力大学;国网吉林省电力有限公司吉林供电公司,未经东北电力大学;国网吉林省电力有限公司吉林供电公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910546553.X/2.html,转载请声明来源钻瓜专利网。