[发明专利]一种基于alpha散度的孪生网络跟踪方法有效
申请号: | 202110556609.7 | 申请日: | 2021-05-21 |
公开(公告)号: | CN113298136B | 公开(公告)日: | 2022-08-05 |
发明(设计)人: | 胡旷伋;朱虎;邓丽珍 | 申请(专利权)人: | 南京邮电大学 |
主分类号: | G06V10/774 | 分类号: | G06V10/774;G06V10/82;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 南京纵横知识产权代理有限公司 32224 | 代理人: | 孙永生 |
地址: | 210003 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 alpha 孪生 网络 跟踪 方法 | ||
本发明公开了一种基于alpha散度的孪生网络跟踪方法,旨在解决现有技术难以实现高鲁棒性和准确性的视觉跟踪的技术问题。其包括:获取待跟踪图像和训练好的孪生网络,所述孪生网络基于alpha散度进行训练;利用ResNet50提取待跟踪图像的深度特征;利用目标中心回归分支处理待跟踪图像的深度特征,获得待跟踪图像的预测目标位置;利用目标框回归分支分别处理待跟踪图像的深度特征,获得待跟踪图像的预测目标框。本发明能够从概率角度解释了人工标注带来的噪声、不确定度,具有更高的准确性和鲁棒性。
技术领域
本发明涉及一种基于alpha散度的孪生网络跟踪方法,属于图像视觉技术领域。
背景技术
随着通信、计算机等领域的发展,人工智能已然成为当前人类的研究热点。计算机视觉,让摄像头作为计算机的“眼睛”,观看这个世界,希望计算机能够像大脑一样处理这些海量的高维图像数据,并在工业探伤,医学图像处理,道路安全以及监控防护中应用广泛。目标跟踪是计算机视觉中一个非常重要且基础的方向,在给定初始状态的情况下,估计出视频序列中目标的运动轨迹,看似简单的流程却融合了图像处理、模式识别、概率论和优化理论等多个领域的知识,在军民生活中有着广泛的应用,如体育赛事转播、无人车、智能监控,人机交互系统。
近年来,基于判别式相关滤波器的跟踪算法取得卓越的成绩,对于高维图像数据,维持其结构稳定的张量特征表示也逐渐被引入到DCF中。随着计算机的计算能力的不断提升,以及深度神经网络强大的特征提取能力,大量的研究者和科技公司都在基于深度学习进行计算机视觉研究并且取得了巨大成功。最近几年,视觉目标跟踪竞赛的展开,OTB、TrackingNet、COCO等大量人工标注的数据集的出现为基于深度学习的目标跟踪提供了数据训练基础,极大的激励了深度学习在目标跟踪算法的发展,研究者们越发地将传统跟踪算法融入深度网络,减轻了传统方法特征提取和参数优化的压力,提高了目标与背景的分类性能。然而深度学习是数据驱动的,存在着训练时间长、样本需求多、硬件配置需求高的缺点,依然存在着局限性。
此外,跟踪器会受到来自两个方面的干扰:目标自身运动造成的旋转、形变、快速运动造成的模糊、尺度变化;外在环境造成的遮挡、背景杂斑。这些干扰给跟踪算法带来了很多的挑战。实现高鲁棒性和准确性的视觉跟踪仍然是一个难点。
目标跟踪与人类的生活息息相关,有着十分宽广的应用前景,虽然技术方法随着科技进步不断更新来克服各种干扰,但是设计一个具有鲁棒性和实时性的跟踪器仍然是一项艰巨的任务,对其的研究具有重要意义。
发明内容
为了解决现有技术难以实现高鲁棒性和准确性的视觉跟踪的问题,本发明提出了一种基于alpha散度的孪生网络跟踪方法,在孪生网络框架上使用最小化网络输出的条件概率和真实标注分布之间的alpha散度,从概率角度解释了人工标注带来的噪声、不确定度,具有更高的准确性和鲁棒性。
为解决上述技术问题,本发明采用了如下技术手段:
本发明提出了一种基于alpha散度的孪生网络跟踪方法,包括如下步骤:
获取待跟踪图像和训练好的孪生网络,所述孪生网络基于alpha散度进行训练;
利用训练好的孪生网络中的ResNet50提取待跟踪图像的深度特征;
利用训练好的孪生网络中的目标中心回归分支处理待跟踪图像的深度特征,获得待跟踪图像的预测目标位置;
利用训练好的孪生网络中的目标框回归分支分别处理待跟踪图像的深度特征,获得待跟踪图像的预测目标框。
进一步的,所述孪生网络的训练过程如下:
构建孪生网络的基本框架,所述孪生网络包括采用ResNet50的主干网络、目标中心回归分支和目标框回归分支;
获得孪生网络的训练集和测试集,所述训练集或测试集中包括多幅含有目标的训练图像或测试图像;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京邮电大学,未经南京邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110556609.7/2.html,转载请声明来源钻瓜专利网。