[发明专利]基于多层特征融合的视频目标检测方法有效
申请号: | 201910632493.3 | 申请日: | 2019-07-13 |
公开(公告)号: | CN110427839B | 公开(公告)日: | 2022-05-06 |
发明(设计)人: | 韩红;岳欣;李阳;陈军如;张照宇;范迎春;高鑫磊;唐裕亮 | 申请(专利权)人: | 厦门瞳景物联科技股份有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04 |
代理公司: | 蚌埠幺四零二知识产权代理事务所(普通合伙) 34156 | 代理人: | 尹杰 |
地址: | 361000 福建省厦*** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 多层 特征 融合 视频 目标 检测 方法 | ||
1.一种基于多层特征融合的视频目标检测方法,其特征在于,包括有如下步骤:
(1)提取当前帧及其前帧和后帧图像的卷积特征:输入某个视频中的一帧图像Xt,其包含C个类别中的某一类目标,同时在该视频中,对于当前帧Xt在之前的Xt-9~Xt-1帧中任意选取一帧作为其前帧,在之后的Xt+1~Xt+9帧中任意选择一帧作为其后帧,分别将当前帧、前帧和后帧输入到改进卷积神经网络中,提取得到当前帧及其前帧和后帧图像的卷积特征Ft,Ft-,Ft+,作为融合网络的输入;所述的改进卷积神经网络具体是在卷积网络的浅、中、深三个位置分别添加注意机制模块;
所述的融合网络把前帧和后帧的特征图信息融合到当前帧的特征图,其过程包括:
(a)先将当前帧、前帧和后帧的特征图按第一维连接,输入到采样网络获取对前帧和后帧特征图的采样图Ht-,Ht+,作为计算采样系数时的输入;
(b)再将前帧和后帧的采样图Ht-,Ht+输入到L2正则化层中对前帧和后帧采样图进行平滑操作;
(c)最后将平滑后的前帧和后帧采样图输入到softmax归一化层,得到前帧和后帧特征图的采样系数λt-,λt+,通过融合公式把前帧和后帧的特征图与当前帧的特征图进行融合,得到当前帧的融合特征图,作为检测网络的输入;
所述的将当前帧、前帧和后帧图像输入到改进卷积神经网络中提取特征图Ft,Ft-,Ft+,具体包括如下步骤:
(1a)将图像输入到改进卷积神经网络,在网络的三分之一深度位置的卷积层后添加浅层注意模块,对该卷积层提取的浅层特征图进行优化后,作为下一个卷积层的输入;
(1b)在网络的三分之二深度位置的卷积层后添加中层注意模块,对该卷积层提取的中层特征图进行优化后,作为下一个卷积层的输入;
(1c)在网络的最后一个卷积层后添加深层注意模块,对最后一个卷积层提取的深层特征图进行优化后,作为采样网络的输入;
(2)对前帧和后帧的特征图计算采样图:将当前帧及其前帧和后帧图像的卷积特征图Ft,Ft-,Ft+输入到采样网络,根据当前帧、前帧和后帧的特征图关系,获取对前帧和后帧特征图的采样图Ht-,Ht+;
(3)根据采样图计算对前帧和后帧特征图的采样系数:将前帧和后帧采样图Ht-,Ht+输入到采样网络中的L2正则化层和softmax归一化层中,获取对前帧和后帧特征图的采样系数λt-,λt+;
(4)融合特征:将前后帧特征图的采样系数λt-,λt+分别作为前帧和后帧特征图的权重系数,通过融合公式对当前帧、前帧和后帧的特征图进行求和,得到融合后当前帧的融合特征图Ft’;
(5)提取候选区域:将当前帧Xt的融合特征图Ft’输入到候选区域RPN网络中提取候选区域,并利用非极大值抑制的方法对候选区域进行初步筛选,得到检测目标的候选区域集I;
(6)目标分类和坐标回归:将候选区域集I中的每一个候选区域分别输入到分类和回归网络中计算目标的类别和位置坐标,得到检测目标的类别和位置坐标;
(7)重复步骤(1)~(6),训练整个数据集,得到能识别C个类别的视频目标检测模型,通过添加新的类别的数据集,进一步训练检测模型得到能识别新类别的模型,即对C个类别以外的目标类别进行扩充。
2.根据权利要求1所述的基于多层特征融合的视频目标检测方法,其特征在于,步骤(4)中所述的融合公式为:
Ft’=Ft+λt-*Ft-+λt+*Ft+
其中,Ft’是当前帧的融合特征图,Ft,Ft-,Ft+分别是当前帧、前帧和后帧的特征图,λt-是前帧特征图的采样系数,取值范围是0~1,λt+后帧特征图的采样系数,取值范围是0~1。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于厦门瞳景物联科技股份有限公司,未经厦门瞳景物联科技股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910632493.3/1.html,转载请声明来源钻瓜专利网。