[发明专利]一种基于不确定性引导的自适应跨域目标检测方法有效
申请号: | 202110764822.7 | 申请日: | 2021-07-06 |
公开(公告)号: | CN113392933B | 公开(公告)日: | 2022-04-15 |
发明(设计)人: | 蔡敏捷;罗敏怡 | 申请(专利权)人: | 湖南大学 |
主分类号: | G06V10/764 | 分类号: | G06V10/764;G06V10/82;G06V10/766;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 深圳市深软翰琪知识产权代理有限公司 44380 | 代理人: | 吴雅丽 |
地址: | 410000 湖*** | 国省代码: | 湖南;43 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 不确定性 引导 自适应 目标 检测 方法 | ||
本发明公开了一种基于不确定性引导的自适应跨域目标检测方法,属于图像处理以及目标检测技术领域,包括以下步骤:S1.目标检测模型的预训练;S2.针对目标域数据的随机前向预测;S3.计算目标检测每个实例的平均类别概率、位置以及对应的不确定性;S4.图像伪标签的选择;S5.不确定性引导的模型自训练。本发明的基于不确定性引导的自适应目标检测方法,基于无监督领域自适应的框架,与现有技术不同的是本发明明确考虑了目标检测模型的不确定性,提出了一个不确定性感知伪标签选择算法,并基于得到的伪标签来进行模型自训练的新方法。基于本发明提出的方法,能够极大地提高目标检测模型的通用性能。
技术领域
本发明属于图像处理以及目标检测技术领域,涉及一种基于不确定性引导的自适应跨域目标检测方法。
背景技术
目标检测是计算机视觉中的一个热门问题,随着新的深层神经网络的应用,如Faster R-CNN和YOLO,研究者提出了基于大量标注数据的目标检测器,其性能有了很大的提升。然而,在实际应用中,由于不同领域的分布差异,在新的不可见场景(领域)中部署一个预先训练好的目标检测器仍然是一个较大的挑战。
现有的跨域目标检测方法主要通过对抗学习的方式来学习域不变特征,从而对齐两个域输入的边缘分布。但这种方法有一定的局限性,当输入和输出的联合分布不一致时,即使两个域的图像特征很好对齐,目标域中的对象也可能在源域中被检测为不正确的类别。为了使输出和输入的分布保持一致,域自适应的另一种策略是自训练,它将一个预先训练模型对目标域数据的预测视为重新训练模型的伪标签,然而,模型重训练过程中噪声伪标签增加了自训练的难度,且两个域之间的分布差异会进一步增加自训练分配错误伪标签的风险。
发明内容
本发明的目的在于提供一种基于不确定性引导的跨域目标检测方法,该基于不确定性引导的自适应目标检测方法能够极大地提高目标检测模型的通用性能。
为了达到上述目的,本发明提供以下技术方案:
本发明提供一种基于不确定性引导的自适应跨域目标检测方法,包括以下步骤:
S1.目标检测模型的预训练:使用带标签的源域的训练数据、不带标签的目标域的训练数据,对目标检测模型进行训练和跨域的特征对齐;
S2.针对目标域数据的随机前向预测:使用目标检测模型对目标域数据进行多次随机前向预测;
S3.计算目标检测每个实例的平均类别概率、位置,以及平均类别概率、位置对应的不确定性,得到每个候选框的类别不确定性和位置不确定性;
S4.图像伪标签的选择:利用不确定性感知的伪标签选择算法,将图像选取部分实例预测结果作为伪标签,并作为步骤S5中模型自训练的伪标签;
S5.不确定性引导的模型自训练:基于步骤S3所得结果,以及步骤S4所得伪标签,对图像目标检测模型进行自训练,更新模型参数,使得模型更加适用于目标域数据。
优选的,步骤S1中,所述目标检测模型为带有丢弃正则化(Dropout正则化)的全卷积神经网络;所述跨域的特征对齐基于对抗思想,使用梯度反转层将源域的训练数据与目标域的训练数据在特征空间进行对齐。
优选的,步骤S2中,所述随机前向预测即在模型预测时开启dropout功能(开启dropout功能:相当于随机关闭一些神经元的作用),使得每次预测使用不同的模型参数(模型参数通过dropout自动采样得到,不需要人为干预),从而得到不同的预测结果,模型的直接预测结果是目标检测实例类别概率和位置。
优选的,步骤S3中,具体步骤如下:
给定一个候选框b,基于步骤S2得到的多次预测结果,可以利用下式计算它的平均类别概率和位置
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于湖南大学,未经湖南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110764822.7/2.html,转载请声明来源钻瓜专利网。