[发明专利]一种运动目标视频跟踪方法及系统有效
申请号: | 201910142073.7 | 申请日: | 2019-02-26 |
公开(公告)号: | CN109685045B | 公开(公告)日: | 2020-09-29 |
发明(设计)人: | 曲海平;刘显林;姜雨萌 | 申请(专利权)人: | 鲁东大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/46;G06K9/62 |
代理公司: | 北京路浩知识产权代理有限公司 11002 | 代理人: | 王莹;李相雨 |
地址: | 264025 山东*** | 国省代码: | 山东;37 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 运动 目标 视频 跟踪 方法 系统 | ||
1.一种运动目标视频跟踪方法,其特征在于,包括:
根据待跟踪视频中每一帧图像对应的聚散熵将待跟踪视频按时序划分为至少两个子视频;其中,每一帧图像对应的聚散熵反映了每一帧图像的聚散程度;
对于任意一个当前子视频,从所述当前子视频的前一子视频中选取目标帧图像,根据所述目标帧图像对前一子视频对应的分类器进行更新,获得所述当前子视频对应的分类器,根据所述当前子视频对应的分类器获取所述当前子视频的第一帧图像中的目标子图像;其中,所述根据所述目标帧图像对前一子视频对应的分类器进行更新,具体包括:根据目标帧图像重构正负样本,以利用重构的正负样本训练新的分类器作为所述当前子视频对应的分类器;
将所述当前子视频中位于所述第一帧图像之后的每一帧图像作为待跟踪图像,对于任意一帧待跟踪图像,从所述待跟踪图像中选取多个样本子图像,计算每个样本子图像与所述待跟踪图像的前一帧图像中的目标子图像之间的距离,根据每个样本子图像对应的距离确定每个样本子图像对应的后验概率,将最大后验概率对应的样本子图像确定为所述待跟踪图像中的目标子图像。
2.根据权利要求1所述的方法,其特征在于,根据待跟踪视频中每一帧图像对应的聚散熵将待跟踪视频按时序划分为至少两个子视频,之前还包括:
基于log算子的透射率优化算法对待跟踪视频进行清晰化处理,获得清晰化的待跟踪视频;
相应地,根据待跟踪视频中每一帧图像对应的聚散熵将待跟踪视频按时序划分为至少两个子视频,具体为:
根据清晰化的待跟踪视频中每一帧图像对应的聚散熵将清晰化的待跟踪视频按时序划分为至少两个子视频。
3.根据权利要求1所述的方法,其特征在于,根据待跟踪视频中每一帧图像对应的聚散熵将待跟踪视频按时序划分为至少两个子视频,具体为:
计算待跟踪视频中每一帧图像对应的聚散熵,将聚散熵不大于第一阈值的帧图像作为关键帧图像;
利用预设优化算法根据每一帧图像对应的聚散熵将待跟踪视频划分为至少两个子视频,以使得每个子视频的第一帧图像为关键帧图像且每个子视频所包含的图像帧数不小于第二阈值且各个子视频所包含的关键帧图像数量的标准差最小。
4.根据权利要求1所述的方法,其特征在于,从所述当前子视频的前一子视频中选取目标帧图像,具体包括:
获取所述当前子视频的前一子视频中每一帧图像对应的聚散熵;
选取聚散熵最小的帧图像作为所述目标帧图像。
5.根据权利要求1所述的方法,其特征在于,根据所述目标帧图像对前一子视频对应的分类器进行更新,获得所述当前子视频对应的分类器,之前还包括:
从第一个子视频的第一帧图像中获取训练样本;
提取所述训练样本对应的HOG特征、SILTP特征和Harr-like特征,将所述训练样本对应的HOG特征、SILTP特征和Harr-like特征进行级联,获得所述训练样本对应的特征向量;
根据所述训练样本对应的特征向量对预设分类器进行训练,获得第一个子视频对应的分类器。
6.根据权利要求5所述的方法,其特征在于,根据所述目标帧图像对前一子视频对应的分类器进行更新,获得所述当前子视频对应的分类器,具体包括:
提取所述目标帧图像的Harr-like特征和SILTP特征;
基于增量学习方法根据所述目标帧图像的Harr-like特征和SILTP特征对前一子视频对应的分类器进行更新,获得所述当前子视频对应的分类器。
7.根据权利要求5所述的方法,其特征在于,将所述训练样本对应的HOG特征、SILTP特征和Harr-like特征进行级联,获得所述训练样本对应的特征向量,之后还包括:
利用交叉二次判别分析算法对所述训练样本对应的特征向量进行降维,获得所述训练样本对应的降维后的特征向量;
对应地,根据所述训练样本对应的特征向量对预设分类器进行训练,具体为:
根据所述训练样本对应的降维后的特征向量对预设分类器进行训练。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于鲁东大学,未经鲁东大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910142073.7/1.html,转载请声明来源钻瓜专利网。