[发明专利]一种基于稳健后处理的视频对象目标检测的方法在审
申请号: | 202211564365.8 | 申请日: | 2022-12-07 |
公开(公告)号: | CN116129301A | 公开(公告)日: | 2023-05-16 |
发明(设计)人: | 黄响;王欢;林林 | 申请(专利权)人: | 新大陆数字技术股份有限公司 |
主分类号: | G06V20/40 | 分类号: | G06V20/40;G06V20/54;G06N3/0464 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 350015 福*** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 稳健 处理 视频 对象 目标 检测 方法 | ||
1.一种基于稳健后处理的视频对象目标检测的方法,其特征在于,具体包括如下步骤:
S1、获取视频并采用YOLOX方法进行单帧图像的对象目标检测;
S2、将帧间关联技术应用于单帧图像的检测结果,实现相邻帧的对象目标关联;
S3、利用帧间关联结果和模板匹配技术进行补漏操作;
S4、按照不同关联帧的匹配对,形成tublet,并对tublet进行重新赋分,输出检测结果。
2.根据权利要求1所述的一种基于稳健后处理的视频对象目标检测的方法,其特征在于:所述步骤S2具体包括如下步骤:
S21、导入步骤S1中的单帧图像的对象目标检测结果;
S22、计算相邻两帧之间检测框的关联距离,公式如下:
其中,为t帧中检测框i与相邻帧t-1中检测框j的交并比;为t帧中检测框i与相邻帧t-1中检测框j对应的类别分数矢量的乘积;
S23、选取帧t与帧t-1的距离矩阵Distance最小值对应的检测框索引作为关联对pair(i,j),并将Distance距离矩阵的i行和j列均设定为Infinity,继续按照上述方式选取关联对,直至Distance的最小值为Infinity;其中,Infinity=9e6。
3.根据权利要求2所述的一种基于稳健后处理的视频对象目标检测的方法,其特征在于:所述步骤S3具体包括如下步骤:
S31、对前一帧t-1与当前帧t与未形成pair的检测框i进行进一步判断,若是边界框,则舍去,若不是则进入步骤S32;
S32、判断前一帧t-1的检测框i与前两帧t-2的检测框是否有形成pair,若无,则舍去,若有则记为pair(i,j),进入步骤S33;
S33、根据前一帧t-1的检测框i与前两帧t-2的检测框j的位置变化预测当前帧t的对应检测框k的位置;
S34、选定匹配区域,在当前帧t的匹配区域内进行模板匹配,若匹配值大于阈值,则认为匹配成功,选择模板匹配的图像位置作为当前帧t中检测框k的补漏位置,并增加帧间配对pair(i,k)。
4.根据权利要求3所述的一种基于稳健后处理的视频对象目标检测的方法,其特征在于:所述步骤S33具体包括:
采用差值法,定义前一帧t-1的检测框i与前两帧t-2的检测框j的位置分别为boxi=[x1i,y1i,x2i,y2i]和则预测当前帧t的对应检测框k的位置为
5.根据权利要求3所述的一种基于稳健后处理的视频对象目标检测的方法,其特征在于:所述步骤S34具体为:
固定boxk的中心位置,将boxk的长和宽扩大2倍,以此作为匹配区域。以boxi对应的图像特征为模板,在当前帧t的匹配区域内进行模板匹配,若匹配值大于定义的阈值,则认为匹配成功,选择模板匹配的图像位置作为当前帧t中检测框k的补漏位置,并增加帧间配对pair(i,k)。
6.根据权利要求1所述的一种基于稳健后处理的视频对象目标检测的方法,其特征在于:所述步骤S4具体包括:
S41、帧t-n与帧t之间的某一检测框的关联对为pair(i,j),pair(j,k),…,pair(l,m),pair(m,n),可以将此序列对应的检测框信息形成其中ti={image_namet,boxi,score_vectori};
S42、对tubelet进行重新赋分:将每个tubelet的类别分数矢量求平均,然后将此均值赋给tubelet中的所有关联检测框,输出检测结果。
7.根据权利要求2所述的一种基于稳健后处理的视频对象目标检测的方法,其特征在于:所述步骤S21的单帧图像的对象目标检测结果为pckl字典格式,具体格式为[image_name,box,score_vector],其中,image_name为图片名称、box为检测框的位置信息、score_vector为类别分数矢量,其为类别置信度和目标置信度的乘积。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于新大陆数字技术股份有限公司,未经新大陆数字技术股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211564365.8/1.html,转载请声明来源钻瓜专利网。