[发明专利]一种基于Group Lasso的半监督哈希图像搜索装置有效
申请号: | 201710437582.3 | 申请日: | 2017-06-09 |
公开(公告)号: | CN107169137B | 公开(公告)日: | 2019-10-08 |
发明(设计)人: | 黄滟鸿;史建琦;王祥丰;吴苑斌 | 申请(专利权)人: | 华东师范大学;上海丰蕾信息科技有限公司 |
主分类号: | G06F16/58 | 分类号: | G06F16/58;G06K9/36;G06K9/40;G06K9/42;G06K9/62 |
代理公司: | 北京辰权知识产权代理有限公司 11619 | 代理人: | 董李欣 |
地址: | 200062 上*** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 grouplasso 监督 希图 搜索 装置 | ||
本发明提供一种基于Group Lasso的半监督哈希图像搜索装置,属于图像搜索领域。所述装置包括:预处理模块,用于识别图像数据库中的标签图像和非标签图像,并对输入图像、标签图像和非标签图像进行预处理;训练学习模块,用于根据预处理之后的输入图像、标签图像和非标签图像进行基于Group Lasso的半监督哈希学习得到各图像对应的二进制哈希码;计算模块,用于根据二进制哈希码计算输入图像与图像数据库中各图像之间的海明距离,并返回最小海明距离对应的图像作为图像搜索结果。本发明中,能够结合现有图像数据的状况,有效的建模图像数据结构,快速准确的搜索到所需的图像,并且无需存储图像本身,大大节约了存储空间。
技术领域
本发明涉及图像搜索领域,尤其涉及一种基于Group Lasso的半监督哈希图像搜索装置。
背景技术
大数据时代的到来、互联网技术的飞速发展和智能手机与照相机等成像设备的日渐普及,使图像等媒体资源的数据采集越来越便捷。在Web2.0时代,人们早已不满足于仅仅使用文字来传达信息,尤其是随着Facebook、推特、微信、微博等社交软件的流行,人们在日常生活中已经非常熟练的使用聊天“表情包”、朋友圈小视频、语音信息等。这些图像、视频、音频等海量的非结构化数据每天都在以惊人的速度增长。据市场调查研究公司IDC的一项调查报告指出:世界上80%的数据都是非结构化数据,以文档、图像、视频、音频等形式存储信息,这些数据每年都按指数增长60%。这其中,图像数据占据了极大的比例,也蕴含了大量的信息。
面对以几何速度增长的网络图像数量,传统的图像数据的分析和处理面临资源基数庞大、特征维度高、需要的存储空间大、查询速度慢等方面的挑战;因此诞生了多种拥有亚线性、对数甚至常数的时间复杂度的近似最近邻算法 (Approximate NearestNeighbor,ANN),其中基于哈希的近似最近邻算法以常数的查询时间和只需存储少量压缩的二进制码等优点获得大量关注。
然而,从现实生活中的图像数据标记现状考虑,尤其是在图像搜索与识别等领域,最大量的、获取最便捷的图像数据都是没有标签的,只有少部分是耗费人力和物力获得的带有标签的图像数据。因此,只需少量带标签的图像数据和大量没有标签的图像数据的图像搜索方法是具有重大现实意义和实际需求的。
再者,从图像数据的结构考虑,由于图像本身具有颜色、性质、纹理等全局特征和局部子特征,图像数据的不同维度之间可能具有某些结构或语义联系,因此,有效的建模图像数据的结构同样成为图像搜索方法的关键点之一。
最后,从图像数据的规模考虑,图像数据在与日俱增,设计有效的求解算法对大规模数据集上的图像搜索亦是重中之重。
发明内容
为解决现有技术的缺陷,本发明提供一种基于Group Lasso的半监督哈希图像搜索装置,包括:
预处理模块,用于识别图像数据库中的标签图像和非标签图像,对输入图像、所述标签图像和所述非标签图像进行预处理;
训练学习模块,用于根据所述预处理模块预处理之后的所述输入图像、所述标签图像和所述非标签图像进行基于Group Lasso的半监督哈希学习得到各图像对应的二进制哈希码;
计算模块,用于根据所述训练学习模块得到的二进制哈希码计算所述输入图像与所述图像数据库中各图像之间的海明距离,并返回最小海明距离对应的图像作为图像搜索结果。
可选地,所述预处理模块,具体用于:识别图像数据库中的标签图像和非标签图像,对输入图像、所述标签图像和所述非标签图像进行灰度化、归一化、几何变换和降噪操作。
可选地,所述训练学习模块包括:优化子模块,用于使用邻近算法优化求解模型。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华东师范大学;上海丰蕾信息科技有限公司,未经华东师范大学;上海丰蕾信息科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710437582.3/2.html,转载请声明来源钻瓜专利网。