[发明专利]一种用于多模态目标跟踪的对象感知图像融合方法有效
申请号: | 202110169737.6 | 申请日: | 2021-02-07 |
公开(公告)号: | CN112862860B | 公开(公告)日: | 2023-08-01 |
发明(设计)人: | 朱鹏飞;王童;胡清华 | 申请(专利权)人: | 天津大学 |
主分类号: | G06V10/80 | 分类号: | G06V10/80;G06T7/246;G06V10/46;G06V10/764;G06V10/82;G06N3/0464;G06N3/084 |
代理公司: | 深圳众邦专利代理有限公司 44545 | 代理人: | 丁曹凯 |
地址: | 300072*** | 国省代码: | 天津;12 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 用于 多模态 目标 跟踪 对象 感知 图像 融合 方法 | ||
1.一种用于多模态目标跟踪的对象感知图像融合方法,其特征在于,所述方法包括以下步骤:
获取自适应融合图像,通过将RGB图像和热模态图像分别输入双通道,对图像进行显著性检测,级联并连接网络中不同层的输出,每个通道包含三个密集块,直接连接深层特征,通过滑动窗口评判图像灰度值大小、像素强度、相似性度量,进而根据像素强度和相似性度量确定一致性损失函数,进一步通过一致性损失函数来自适应引导网络重建融合图像;
特征组合模块使用深度互相关运算将样本提取的特征和搜索图像进行组合,以生成相应的相似性特征用于后续目标定位,然后进行分类和回归进行目标定位;
使用无锚框的回归网络进行跟踪训练,它将groundtruth中边界框内所有像素作为训练样本;通过采用可形变卷积改变采样位置,使其与预测边界框对齐,将分类置信度与目标对象对应;
获取自适应融合图像步骤中所述网络中相似性度量具体为:
其中,X,Y表示为两个模态图片,其中C=9×104,W为滑动窗口,σ为标准偏差,σXY为X与Y之间的互相关,滑动窗口大小为11×11,通过计算窗口中像素的平均强度来测量SSIM得分;
其中,N为单个图像中滑动窗口的总数,Irgb为RGB图像,Ir为热图像,IF为融合图像,当E(It|W)大于或者等于E(Irgb|W)时,意味着热红外图像拥有更多的纹理信息,则SSIM会引导网络保留热红外特征,会使IF更相似与It,反之亦然,其中Pi是像素i的值;
所述一致性损失函数描述如下:
LossF=LSSIM+λLOAloss;
其中,λ为超参数,OA是原始图像和融合图像之间的差,||2是l2距离。
2.根据权利要求1所述的一种用于多模态目标跟踪的对象感知图像融合方法,其特征在于,所述采用可形变卷积改变采样位置具体为:
将采样网络G执行了空间变换T,将固定采样位置变成预测位置,其中F为输入特征图,w表示学习的卷积权重,c为特征图中上的位置,F′表示输出特征图,空间变换Δτ∈T表示从原始采样点到预测边界框对齐的距离矢量。
3.根据权利要求2所述的一种用于多模态目标跟踪的对象感知图像融合方法,其特征在于,所述采用可形变卷积改变采样位置是指:使其与预测边界框对齐,将分类置信度与目标对象对应。
4.根据权利要求3所述的一种用于多模态目标跟踪的对象感知图像融合方法,其特征在于,所述将分类置信度与目标对象对应具体地:对于分类图中的每个位置(c_{x},
c_{y}),它都有一个由回归网络预测的对象边界框M=(m_{x},m_{y},m_{w},m_{h}),其中,m_{x}、m_{y}表示边框中心,而m_{w}、m_{h}表示框中心宽度和高度。
5.根据权利要求1所述的一种用于多模态目标跟踪的对象感知图像融合方法,其特征在于,所述无锚框的回归网络进行跟踪训练具体为:若像素坐标(x,y)落入真实框B中,则将其视为回归样本,令B=(x0,y0,x1,y1)∈R4结果表示像素真实框的左上角和右下角目标对象,计算样本标签为T*=(d1,d2,d3,d4)
d1=x-x0,d2=y-y0,
d3=x1-x,d4=y1-y,
代表从位置到边界框的四个边的距离。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于天津大学,未经天津大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110169737.6/1.html,转载请声明来源钻瓜专利网。