[发明专利]一种运动目标追踪方法、装置、计算机设备及存储介质有效
申请号: | 201910912014.3 | 申请日: | 2019-09-25 |
公开(公告)号: | CN110728700B | 公开(公告)日: | 2022-07-19 |
发明(设计)人: | 欧阳国胜 | 申请(专利权)人: | 北京佳讯飞鸿电气股份有限公司 |
主分类号: | G06T7/254 | 分类号: | G06T7/254;G06T7/215 |
代理公司: | 北京品源专利代理有限公司 11332 | 代理人: | 孟金喆 |
地址: | 100095 北*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 运动 目标 追踪 方法 装置 计算机 设备 存储 介质 | ||
本发明实施例公开了一种运动目标追踪方法、装置、计算机设备及存储介质,方法包括:对输入的序列图像进行运动检测;其中,所述序列图像包括至少一帧图像;如果确定所述序列图像中的当前帧图像存在候选运动区域,则对所述当前帧图像进行图像分类;根据图像分类结果对所述候选运动区域确定运动区域;其中,所述运动区域包括至少一个运动目标;控制摄像装置追踪所述运动目标。本发明实施例的技术方案能够提高运动目标追踪方法的准确性、高效性和适用性。
技术领域
本发明实施例涉及图像处理技术领域,尤其涉及一种运动目标追踪方法、装置、计算机设备及存储介质。
背景技术
运动的视觉分析是近年来计算机视觉领域中备受关注的前沿方向,它从图像序列中检测、识别、跟踪运动目标并对其行为进行理解和描述,属于图像分析和理解的范畴,其应用极为广泛。
现有的用于检测和跟踪序列图像中的运动目标的方法主要包括基于背景差分法、基于帧间差分法、基于光流场法以及基于特征法等。其中,基于背景差分法利用当前目标图像与背景图像的差值来检测运动区域,将待观察图像和不包含感兴趣物体的估计图像进行比较,并将二者存在明显差异的区域作为运动物体所在位置。基于帧间差分法为在图像背景不完全静止时,采用的直接比较两帧图像对应像素点的像素值的方法。基于光流场方法的运动检测需要计算图像中每一个像素点的运动向量,即建立整幅图像的光流场。如果场景中没有运动目标,则图像中所有像素点的运动向量应该是连续变化的;否则,由于目标和背景之间存在相对运动,目标所在位置处的运动向量必然和邻域(背景)的运动向量不同,从而检测出运动目标。基于特征的方法是从相继两幅或多幅不同时刻的图像中抽取特征,并建立起对应,再依据这些特征之间的对应来计算物体的结构(形状或位置等)运动,对于计算运动就是从对应点坐标求出运动参数。
发明人在实现本发明的过程中,发现现有技术存在如下缺陷:基于背景差分法假定图像背景是静止不变的,由于背景图像的动态变化,直接应用背景差分法检测和分割运动目标比较困难,需要通过视频序列的帧间信息来估计和恢复背景,因此需要选择性的更新背景,因此,这种方法不适用于图像获取装置运动的情况。基于帧间差分法要求图像序列的帧与帧之间的匹配度满足需求,否则容易产生较大的检测误差。这种方法可能无法检测运动缓慢的目标和缓慢光照变化引起的图像变化,对于图像获取装置运动的情况,只能检测到图像序列中所有物体的边缘,而不能区分运动和静止目标。基于光流场方法的计算方法复杂度和计算量较高,且易受噪声干扰,适用性较低。基于特征的方法很难区分不同目标之间的特征点,尤其是当运动目标需要先依据别的方法来区分不同的目标,特征如果不稳定,则产生问题也相当严重,另外,由于缺乏通用的快速匹配算法,导致适用性较低。
发明内容
本发明实施例提供一种运动目标追踪方法、装置、计算机设备及存储介质,以提高运动目标追踪方法的准确性、高效性和适用性。
第一方面,本发明实施例提供了一种运动目标追踪方法,包括:
对输入的序列图像进行运动检测;其中,所述序列图像包括至少一帧图像;
如果确定所述序列图像中的当前帧图像存在候选运动区域,则对所述当前帧图像进行图像分类;
根据图像分类结果对所述候选运动区域确定运动区域;其中,所述运动区域包括至少一个运动目标;
控制摄像装置追踪所述运动目标。
第二方面,本发明实施例还提供了一种运动目标追踪装置,包括:
运动检测模块,用于对输入的序列图像进行运动检测;其中,所述序列图像包括至少一帧图像;
图像分类模块,用于如果确定所述序列图像中的当前帧图像存在候选运动区域,则对所述当前帧图像进行图像分类;
运动区域确定模块,用于根据图像分类结果对所述候选运动区域确定运动区域;其中,所述运动区域包括至少一个运动目标;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京佳讯飞鸿电气股份有限公司,未经北京佳讯飞鸿电气股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910912014.3/2.html,转载请声明来源钻瓜专利网。