[发明专利]一种基于等量约束聚类的无监督图像哈希检索方法及系统在审
申请号: | 202210354367.8 | 申请日: | 2022-04-06 |
公开(公告)号: | CN114969404A | 公开(公告)日: | 2022-08-30 |
发明(设计)人: | 李阳;王亚鹏;苗壮;王家宝;张睿;李航 | 申请(专利权)人: | 中国人民解放军陆军工程大学 |
主分类号: | G06F16/53 | 分类号: | G06F16/53;G06F16/55;G06V10/762;G06V20/70;G06V10/774 |
代理公司: | 南京纵横知识产权代理有限公司 32224 | 代理人: | 韩红莉 |
地址: | 210014 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 等量 约束 监督 图像 检索 方法 系统 | ||
本发明公开一种基于等量约束聚类的无监督图像哈希检索方法及系统,包括:将数据库图像输入哈希特征提取网络模型,得到数据库图像的二值化哈希码并构建哈希码数据库;将待检索图像输入训练获得的哈希特征提取网络模型,得到该待检索图像的哈希码,计算该待检索图像的哈希码与哈希码数据库中所有二值化哈希码的汉明距离,将汉明距离最小的数据库图像作为待检索图像的检索结果。本发明利用等量约束聚类对无标签训练图像进行聚类,有效避免K‑Means聚类算法面临的空聚类和聚类不平衡问题,提高硬伪标签标注精度;利用去噪的软伪标签监督哈希特征提取网络训练,充分利用软伪标签挖掘图像类间关系,避免硬伪标签造成的过拟合,提升哈希编码精度。
技术领域
本发明涉及一种基于等量约束聚类的无监督图像哈希检索方法及一种基于等量约束聚类的无监督图像哈希检索系统,属于计算机视觉与图像检索技术领域。
背景技术
随着深度学习技术的快速发展,深度神经网络已被广泛应用于计算机视觉的各个领域。在图像检索任务中,由于深度神经网络提取的图像哈希特征具备存储效率高和查询速度快的优势,被研究者们广泛关注。目前,图像哈希检索方法主要是基于有监督深度学习方法进行表示学习。这类方法结合了深度学习和哈希学习的优势,在保持检索效率的同时提高了检索精度。但是,有监督深度哈希方法依赖于大量准确标注的数据,而获取这些数据将耗费大量的人力资源。
在现实世界中,无标签数据的数量要远远超过有标签数据,如何利用海量无标签数据获取“知识”,成为了一个极具挑战性的课题。与有监督深度哈希学习方法不同,无监督深度哈希学习方法不需要人工标注的数据,可以直接从无标签数据中学习紧凑的哈希特征用于哈希检索,极大地降低了哈希学习的成本。因此,无监督深度哈希学习成为了新的研究热点。
当前,图像无监督深度哈希学习方法中,大都通过代理任务学习哈希码。例如,申请号为201810134469.2,公开号为CN108491430A的中国专利中提出了一种基于对特征方向进行聚类的无监督哈希检索方法。该方法通过K-Means聚类算法对特征聚类,从而实现特征降维,并进一步对新特征的每个维度进行聚类并实现二值编码。但由于K-Means算法缺乏有效的约束,会面临空聚类和聚类不平衡问题,且该类方法未进行鲁棒学习处理,会导致所得到的哈希码鲁棒性不够,从而影响哈希检索精度。
综上所述,虽然现有的无监督深度哈希检索方法能够实现高效的哈希检索,但是受限于其自身标注方法的性能,使得深度无监督哈希方法和深度有监督哈希方法的性能仍存在一定差距。如何实现较高精度的数据标注,并提升深度哈希网络对标签噪声的鲁棒性,成为了无监督哈希学习方法的研究重点。
发明内容
本发明所要解决的技术问题是克服现有技术的缺陷,提供一种基于等量约束聚类的无监督图像哈希检索方法及系统,以解决现有基于聚类的无监督深度哈希图像检索方法面临的空聚类、聚类不平衡问题以及哈希学习方法不够鲁棒的问题。
为达到上述目的,本发明提供一种基于等量约束聚类的无监督图像哈希检索方法,包括:
获取待检索图像;
将数据库图像输入训练获得的哈希特征提取网络模型,得到数据库图像的二值化哈希码,所有数据库图像的二值化哈希码构成哈希码数据库;
将待检索图像输入训练获得的哈希特征提取网络模型,得到该待检索图像的哈希码,计算该待检索图像的哈希码与哈希码数据库中所有二值化哈希码的汉明距离,将汉明距离最小的数据库图像作为待检索图像的检索结果。
优先地,训练获得哈希特征提取网络模型,包括:
获取无标签训练图像;
利用软伪标签标注方法对无标签训练图像进行标注,得到无标签训练图像的软伪标签,并利用软伪标签去噪方法去除软伪标签的部分噪声标签;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国人民解放军陆军工程大学,未经中国人民解放军陆军工程大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210354367.8/2.html,转载请声明来源钻瓜专利网。