[发明专利]一种监控视频中的行人检测与跟踪方法有效
申请号: | 201811068262.6 | 申请日: | 2018-09-13 |
公开(公告)号: | CN109389048B | 公开(公告)日: | 2022-03-25 |
发明(设计)人: | 刘杰平;胡聪;韦岗 | 申请(专利权)人: | 华南理工大学 |
主分类号: | G06V20/40 | 分类号: | G06V20/40;G06V10/774;G06V10/80;G06V10/764;G06V10/762;G06K9/62 |
代理公司: | 广州市华学知识产权代理有限公司 44245 | 代理人: | 裴磊磊 |
地址: | 510640 广*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 监控 视频 中的 行人 检测 跟踪 方法 | ||
本发明公开了一种监控视频中的行人检测与跟踪方法,首先训练检测模块:获取正、负样本的HOG和CSS特征;对正样本的特征进行k均值聚类;对每一类正样本和所有负样本训练得到k个分类器,并级联得到级联分类器作为检测模块;然后训练跟踪模块:将检测模块应用于视频第一帧得到初始目标区域;提取目标区域的HOG和CSS特征,并级联得到融合特征;根据融合特征训练得到初始跟踪模型;用初始跟踪模型与下一帧进行相关操作,取相关操作响应值最大的点作为下一帧视频目标区域的中心点,并更新跟踪模型;当目标消失时,加入检测模块对当前视频帧进行检测,用检测的目标位置重新初始化跟踪模型。所述方法具有很好的鲁棒性,在监控视频中有广阔的应用场景。
技术领域
本发明涉及计算机视觉和图像处理领域,具体涉及一种监控视频中的行人检测与跟踪方法。
背景技术
目标跟踪作为计算机视觉研究领域中的核心问题,在过去十几年中,一直受到众多学者的研究和关注,拥有丰硕的研究成果,并且成功地应用于生活、管理、国防等各个领域,在安防监控、智能人机交互、可穿戴设备、导弹制导、汽车自动驾驶等都有广泛的应用前景。在可预见的未来,计算机视觉领域的研究中很多方面都会涉及到目标跟踪技术,目标跟踪技术将深入到日常生活和社会各个方面,发挥更大的作用。
随着目标跟踪算法所应用到的场景逐渐增加,算法所受到的挑战也越来越大,目前已有的算法很难全面应对实际中的各种复杂场景,仍然具有很大的提升空间。因此研究一种鲁棒的、性能良好的目标跟踪算法将是一项极具挑战性的工作。
发明内容
本发明的目的是针对现有技术的不足,为克服现有目标跟踪算法存在的对遮挡处理不理想、在目标消失后很难继续跟踪等缺点,提出一种跟踪与检测相结合的算法。该算法通过训练级联分类器,把分类器作为检测模块检测视频帧中的目标,并用检测到的目标对跟踪模块进行初始化,在跟踪模块丢失目标后重新使用检测模块对视频帧中的目标进行检测,并重新对跟踪模块进行初始化。在视频监控系统行人跟踪场景下有较好的应用。
本发明的目的可以通过如下技术方案实现:
一种监控视频中的行人检测与跟踪方法,包括以下步骤:
对检测模块进行训练:选取训练数据集,其中包括正样本和负样本;对训练数据集提取HOG(方向梯度直方图)特征和CSS(颜色自相似度)特征,将HOG特征和CSS特征进行组合,得到融合特征;对训练数据集中正样本的融合特征进行K-means聚类,得到k类不同姿态的行人类别;对k类不同姿态的行人类别与负样本进行训练,得到k个不同的SVM分类器;将得到的k个不同的SVM分类器进行级联得到级联分类器,将级联分类器作为检测模块;
对跟踪模块进行训练:将得到的检测模块应用于监控视频的第一帧得到初始的目标区域;提取目标区域的HOG和CSS特征,并组合得到融合特征;根据第一帧目标区域的融合特征训练得到初始跟踪模型;用得到的初始跟踪模型与下一帧视频进行相关操作,取得相关操作响应值最大的点作为下一帧视频的目标区域的中心点,并更新跟踪模型;当目标消失的情况发生时,加入检测模块对当前视频帧进行检测,用检测到的目标区域重新初始化跟踪模型。
本发明与现有技术相比,具有如下优点和有益效果:
1、本发明提供的监控视频中的行人检测与跟踪方法,通过提取行人样本的HOG特征和CSS特征,并将特征进行融合得到融合特征,在复杂环境下的鲁棒性更好。
2、本发明提供的监控视频中的行人检测与跟踪方法,通过聚类将行人姿态分为k类,对每一类姿态进行训练得到k个SVM分类器,将k个SVM分类器级联得到级联分类器,将级联分类器作为检测模块,在行人的检测过程中与一般单一的分类器相比有更好的鲁棒性,在复杂的场景中有更高的检测率。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华南理工大学,未经华南理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811068262.6/2.html,转载请声明来源钻瓜专利网。