[发明专利]一种基于增强重建分类网络的盲领域图像分类与重建方法在审
申请号: | 201911118540.9 | 申请日: | 2019-11-15 |
公开(公告)号: | CN110909783A | 公开(公告)日: | 2020-03-24 |
发明(设计)人: | 陶洋;胡昊;鲍灵浪;孙雨浩;郭坦 | 申请(专利权)人: | 重庆邮电大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 400065*** | 国省代码: | 重庆;50 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 增强 重建 分类 网络 领域 图像 方法 | ||
在实际场景中,测试数据通常与训练数据的分布不同,并且在训练数据上训练的模型在测试数据中的表现可能会更差,从而导致较差的视觉分类性能。该问题主要是由于域偏差引起的,而域适应通过设计减少分布差异的模型来解决此问题。目前的方法依赖自目标域数据样本参与训练。但是,目标域的测试数据一般无法获取。对于这个盲领域适应问题,提出了一种基于增强重建分类网络的盲领域图像分类与重建方法。使用已训练的源域模型的重建管道增强目标域特征,使其更接近源域的正确类。最后可以使用源域模型的分类管道进行分类。在基准数据集上进行的实验证明,方法在跨域视觉识别方面明显优于最新方法。
技术领域
本发明属于图像分类和模式识别领域,特别涉及一种基于增强重建分类网络的盲领域图像分类与重建方法
背景技术
传统机器学习分类算法的基本假设是,训练和测试数据是从同一分布中提取的。但是,在许多现实世界中的计算机视觉应用中,训练和测试数据很少以相同的方式分布。例如,用于面部识别系统的高分辨率ID卡照片和低分辨率嘈杂的监视图像之间的分配可能会有所不同。类似地,从互联网下载用于训练的图像与来自真实场景中不同照明或角度的图像之间的分布也不同。在这种情况下,训练和测试集之间的较大分布差异将削弱训练和测试集所具有的类间差异。因此,设计对分布不匹配具有鲁棒性的分类器非常重要。此问题可以通过领域自适应DA方法解决。
DA算法旨在减少域之间的差异并消除分布不匹配对类间差异的影响。通常,传统的DA方法可以分为半监督和非监督方法。对于半监督方法,训练数据由大量标记的源域数据和有限的标记目标域数据组成。对于无监督方法,训练数据由标记的源域数据和未标记的目标域数据组成。确保无监督的方法更符合实际情况。
从适用场景可以看出,在半监督和非监督域适配中,需要目标域数据参与训练。例如,子空间学习算法主要将项目域与子空间之间的差异最小化以进行域自适应,从而找到一种从源子空间转换为目标子空间的方法或对齐通过投影将源子空间和目标子空间。因此,这些方法的性能将由于目标域的欠采样而受到影响,而后者无法准确计算目标子空间。同样,试图减小源域和目标域之间的分布差异的方法,通常经验最大均值(MMD)等。作为不同分布之间的距离度量。但是这些方法还依赖于足够的目标域数据来准确计算目标域的概率分布。
本发明提出了一种特征增强方法,以减少源域和盲目标域之间的分布不匹配。图2和3展示了我们方法的架构框图。我们的方法主要包括三个步骤:1)首先在源域上学习重构分类网络(RCN)模型。特别是,RCN模型包含重建流水线和分类流水线,仅在全局源域中建立高级语义知识与原始观测数据之间的关联。2)通过训练有素的RCN模型增强目标域样本,以便增强的目标域数据可以在RCN模型重建管道中实现更好的性能。3)使用已经在源域中训练的分类管道对增强数据进行分类。我们在基准数据集上对提出的算法进行了广泛的评估。大量的实验结果表明,即使所提出的方法进行盲学习,它也优于现有的非盲学习方法。
发明内容
本发明提出的一种基于增强重建分类网络的盲领域图像分类与重建方法,针对目标域数据无法获取,导致在训练的模型泛化性差的问题。使用重建分类网络在源域数据上进行联合学习,获得模型后,对目标域数据进行增强,从而得到与源域分布相近的目标与数据,提升图像分类算法精度。
本发明方法的技术方案如下:
步骤1、图像数据集预处理,形成训练集。
对原始数据进行预处理,每个训练样本的原始数据信息为得到包含图像数据的原始数据信息和高层语义信息(标签)矩阵,其中yi∈{0,1}m,m为类别数量。
步骤2、建立源域模型和训练,保证该网络模型包含一个输入通道和两个输出通道。
定义为源域数据和相应的源域标签。fc:为分类管道,fr:为RCN的无监督源域数据重建管道。通过两条管道,建立了原始感知数据与高级语义分类的关系。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于重庆邮电大学,未经重庆邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911118540.9/2.html,转载请声明来源钻瓜专利网。