[发明专利]基于YOLOv3和词袋模型的行为识别方法有效
申请号: | 202110044439.4 | 申请日: | 2021-01-13 |
公开(公告)号: | CN112784722B | 公开(公告)日: | 2022-08-09 |
发明(设计)人: | 宋琳;赵君喜;单义冬 | 申请(专利权)人: | 南京邮电大学 |
主分类号: | G06V40/10 | 分类号: | G06V40/10;G06V20/40;G06V10/46;G06K9/62;G06V10/762;G06V10/80 |
代理公司: | 南京正联知识产权代理有限公司 32243 | 代理人: | 王素琴 |
地址: | 210012 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 yolov3 模型 行为 识别 方法 | ||
基于YOLOv3和词袋模型的行为识别方法,包括如下步骤:读取视频帧,用YOLOv3网络进行目标检测,返回目标的位置信息;截取目标区域、生成动作序列;对动作序列中的序列帧进行预处理,然后分别提取多尺度HOG特征和SIFT特征;对提取的多尺度HOG特征和SIFT特征进行特征加权融合;利用K‑means聚类算法对上一步骤加权融合后得到的融合特征进行聚类,构造视觉词典;将动作序列的视觉词典向量输入SVM多分类器模型进行训练和识别。本方法利用YOLOv3网络检测目标并准确截取目标区域,将其和词袋模型结合,减少训练参数和背景噪声,在KTH数据集上识别率达到96.09%,为视频行为的高效、精准识别提供了新的方法。
技术领域
本发明涉及行为识别领域,具体涉及基于YOLOv3和词袋模型的行为识别方法。
背景技术
近年来,随着智慧城市的推广和视频监控在日常生活中越来越广泛的应用,行人目标检测这一课题在计算机视觉领域得到了越来越多的关注,在很多场景下也发挥着越来越重要的作用。在军事领域中,它可用于罪犯定位与追踪,行人分析等任务,在民用领域中,它可用于智能辅助驾驶,智能监控等工作。可以说,行人目标检测技术已经在不知不觉中为我们的生活提供了极大的便利。在实际工程中,人们往往需要对大量图像或视频进行行人的检测与定位,这些工作若全部由人工来完成,不仅耗时耗力,其检测准确性也无法保证。因此,行人目标检测技术在当今时代背景下有着极为广阔的发展前景。
行人目标检测的发展分为基于传统方法的行人目标检测,基于机器学习的行人目标检测和基于深度学习的行人目标检测。早期人们主要使用传统方法来进行行人检测,如PBAS算法等,但这些方法受光照,阴影等因素的影响很大,且若目标的颜色和背景颜色接近,极易造成漏检。基于机器学习的行人检测方法是很多工程应用中的主流方法,例如HOG+SVM,ICF+Ada Boost等。尽管经典的机器学习算法相较于传统方法有了一定程度上性能的提升,但仍存在对姿态,角度各异的行人检测精度不高的问题。基于这些问题,人们逐渐提出了基于深度学习的行人检测算法,经典网络例如Faster R-CNN和SSD等在行人目标检测方面均有不错的成绩。但人们在实际工程中始终追求更高的检测精度和检测速度。YOLO(You Only Look Once)是一种基于深度神经网络的对象识别和定位算法,其最大的特点是运行速度很快,可以用于实时系统,YOLOv3在2018年被正式提出,在v2的基础上,将darknet-19扩展至darknet-53,用更深的网络确保更高的检测精度,同时检测速度并没降低,且目前YOLOv3对行人的检测置信度高达0.99,这说明该网络可以很好地区别行人及非行人目标;词袋模型可以有效描述视频序列中局部特征,该模型较容易理解和实施且涉及参数少,算法复杂度低。
发明内容
本发明提供了基于YOLOv3和词袋模型的行为识别方法,利用YOLOv3网络检测目标并准确截取目标区域,将其和词袋模型结合,减少训练参数和背景噪声,在KTH数据集上识别率达到96.09%,为视频行为的高效、精准识别提供了新的方法。
基于YOLOv3和词袋模型的行为识别方法,包括如下步骤:
步骤1:读取视频帧,用YOLOv3网络进行目标检测,返回目标的位置信息;
步骤2:截取目标区域、生成动作序列;
步骤3:对动作序列中的序列帧进行预处理,然后分别提取多尺度HOG特征和SIFT特征;
步骤4:对提取的多尺度HOG特征和SIFT特征进行特征加权融合;
步骤5:利用K-means聚类算法对上一步骤加权融合后得到的融合特征进行聚类,构造视觉词典;
步骤6:将动作序列的视觉词典向量输入SVM多分类器模型进行训练和识别。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京邮电大学,未经南京邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110044439.4/2.html,转载请声明来源钻瓜专利网。