[发明专利]一种基于背景反投影的移动平台运动目标检测方法有效
申请号: | 201710301536.0 | 申请日: | 2017-05-02 |
公开(公告)号: | CN107133969B | 公开(公告)日: | 2018-03-06 |
发明(设计)人: | 刘延飞;苏延召;姜柯;李琪 | 申请(专利权)人: | 中国人民解放军火箭军工程大学 |
主分类号: | G06T7/215 | 分类号: | G06T7/215;G06T7/246;G06T7/254;G06T7/194 |
代理公司: | 西安创知专利事务所61213 | 代理人: | 谭文琰 |
地址: | 710025 陕西*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 背景 投影 移动 平台 运动 目标 检测 方法 | ||
技术领域
本发明属于运动目标检测技术领域,具体涉及一种基于背景反投影的移动平台运动目标检测方法。
背景技术
运动目标检测的前景检测是基于计算机视觉监控的一项基础而重要的任务,准确有效的检测结果是后续的目标跟踪、目标识别、视觉导引等高级应用的前提与铺垫。移动平台下的运动目标检测除了受到环境因素、复杂场景、光照变化等影响外,摄像机的运动进一步增加了该问题的挑战性。传统的静止相机运动目标检测方法在移动平台下并不能区分目标运动和相机运动,因而会出现大量的误检测;现有的用于移动平台的摄像机运动下的运动目标检测方法主要可以分为三大类:一是基于初始背景拼接的方法;二是基于帧间背景补偿的方法;三是基于运动信息的方法。
初始背景模型拼接法根据多帧视频序列拼接出原始的大范围全景背景模型图像,在检测运动目标时从该全景背景图中搜索到属于当前帧的背景区域,再将当前帧图像与背景区域做差分处理检测出前景目标,同时利用当前结果对全景背景模型的局部区域进行更新,以此类推,实现对所有视频序列的前景目标检测。该方法的检测结果的准确性极大地依赖于拼接的初始全景背景图是否真实可靠,而构造一幅完整清晰的全景背景图是相当困难的,需要在许多严格的假设前提下才能得以实现,比如用于构造原始背景模型的多帧视频序列中不能包含运动目标,背景初始化过程中场景中各要素不能发生较大变化,背景模型需要人工辅助构建等。
基于帧间背景补偿方法的基本思想是对邻近帧图像之间发生的背景运动进行全局运动估计,得到前一帧图像经过运动补偿后的图像,再将该补偿帧与当前帧进行帧差处理来分割前背景信息,这种方法依赖于运动估计的准确性,检测结果存在大量的空洞,需要进行大量的后续处理。
上述两类方法的本质均是首先找到实际三维空间中某个实体在两帧图像(相邻帧、当前帧和背景帧)的像素对应,进而利用静态背景下运动目标检测的方法进行处理。一方面,这两类方法均依赖于运动模型的真实逼近和模型参数的鲁棒求解,因此在摄像机运动的情况下较难实现同一像素在时域上的准确建模;另一方面,上述方法主要利用颜色变化来区分背景和运动目标,背景和前景在多帧积累的运动信息未被利用。
运动信息方法从视频图像序列中提取出长时间的运动轨迹,进而根据前背景在运动轨迹上的差异类区分目标和背景,然后再进行过分割等处理过程得到完整的运动目标区域。这种方法需要对视频进行缓存,不能实时的处理视频序列,同时该方法的准确性依赖于运动轨迹的提取,对场景的要求较高,依赖于运动估计或者运动轨迹提取,对场景变化与摄像机平台移动的自适应能力较差,且准确性与实时性都有待进一步提高。
发明内容
本发明所要解决的技术问题在于针对上述现有技术中的不足,提供一种基于背景反投影的移动平台运动目标检测方法,不需要对场景和目标作任何假设,不需要训练样本,无需缓存视频序列或估计运动补偿参数,同时具备实时性与准确性优势,既适用于移动平台条件,也可以用于静态摄像机下的运动目标检测,便于推广使用。
为解决上述技术问题,本发明采用的技术方案是:一种基于背景反投影的移动平台运动目标检测方法,其特征在于,该方法包括以下步骤:
步骤一、连续采集视频图像序列:采用图像采集装置连续采集运动目标的图像序列Fk(x,y),并将所述图像序列Fk(x,y)传输至图像处理装置中,其中,k取整数且k不小于4,x为所述图像序列Fk(x,y)中的像素点的横坐标,y为所述图像序列Fk(x,y)中的像素点的纵坐标;
图像采集装置为具有移动平台的图像采集装置,所述具有移动平台的图像采集装置采集的图像均为三通道图像;
步骤二、利用三帧差法获取初始运动目标区域,过程如下:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国人民解放军火箭军工程大学,未经中国人民解放军火箭军工程大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710301536.0/2.html,转载请声明来源钻瓜专利网。