[发明专利]基于深度卷积神经网络的服装属性检索方法有效
申请号: | 201710456031.1 | 申请日: | 2017-06-16 |
公开(公告)号: | CN107330451B | 公开(公告)日: | 2020-06-26 |
发明(设计)人: | 张百灵;夏翌彰;武芳宇;吕文进 | 申请(专利权)人: | 西交利物浦大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/08 |
代理公司: | 苏州创元专利商标事务所有限公司 32103 | 代理人: | 范晴;丁浩秋 |
地址: | 215123 江苏省苏州市*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 卷积 神经网络 服装 属性 检索 方法 | ||
本发明公开了一种基于深度卷积神经网络的服装属性检索方法,包括:采用快速的基于区域的卷积神经网络对输入图像进行人像检测;使用预训练的深度卷积神经网络进行属性特征提取,并保留最后池化层的特征;通过共享层连接最后池化层保留的特征,并融合所有属性的特征信息;建立属性树,将服装属性进行分类,将共享层按照分类进行分支,每个属性分支用于一组相关属性预测;将属性分支的输出串联叠加,进行归一化,通过局部敏感哈希法进行相似度衡量,得出结果。可以将服装属性的特征描述用于部分服装属性检测,可显著提高服装属性预测的准确率。
技术领域
本发明涉及一种基于卷积神经网络的服装检索方法,具体地涉及一种基于深度卷积神经网络的服装属性检索方法。
背景技术
随着互联网和服装电子商务的迅速发展,网络购物市场逐年扩大,如何利用检索技术帮助用户快速找到心仪的服装是一个非常重要的任务。然而,服装检测的识别难度很高:其一,衣服形变大,服装本身是柔性很大的物体,人不同的姿势会导致服装的形状不同;其二,在不同的光照情况和复杂的场景下,区分不同服装类型的困难也会增加;此外,衣服的设计包含了大量细节属性,比如领型、版型、颜色、装饰等等,想要区分出它们的难度很大。
目前广泛使用的服装检索方法是利用分类器来区分各种服装属性,其成功的关键是首先对于各种类型服装的属性进行特征描述,其次选择合适的分类器来学习训练样本,从而得到模型。
一般来说,大部分的基于手工提取特征的方法主要使用边缘梯度直方图(Histogram of Oriented Gradient,HOG)和分层梯度方向直方图(Pyramid Histogram ofOriented Gradients,PHOG)。但是这些方法的瓶颈是手工提取特征只对某一方面敏感。比如,边缘梯度直方图只对梯度敏感。因此,研究人员提出了新的方法,例如:将属性概念引入服装检索、采用细粒度的属性分类。
另一方面,卷积神经网络已经进入到服装属性检测领域,相比于手工提取特征的方法,卷积神经网络大大提高了服装检测的性能。为了研究如何在网上商店匹配街头服装照片的实际问题,双重属性感知网络和局部共享卷积神经网络架构也被提出。例如中国专利文献CN 106250423公开了一种基于部分参数共享的深度卷积神经网络跨域服装检索方法该方法利用了深度神经网络模型中越高层的网络层的特征越具有语义信息,与训练数据所在域的关系越密切,越低层的网络层的特征越具有一般性,越与训练数据所在域无关,依此让传统的深度卷积神经网络跨域服装检索模型中的低层的网络层参数共享,而高层的网络层参数由各个域保有。使用更少参数但却获得相同效果的方法,通过利用深度神经网络模型内在的特性,显著性减少模型参数数量。但是其并没有改善服装属性预测的准确率。本发明因此而来。
发明内容
针对上述存在的缺陷,本发明的目的是提出了一种基于深度卷积神经网络的服装属性检索方法。利用多任务学习和卷积神经网络结合的服装属性检测模型,同时对于提取的各个服装属性特征构建适当的属性树,可以将服装属性的特征描述用于部分服装属性检测,可显著提高服装属性预测的准确率。
本发明的技术方案是:
一种基于深度卷积神经网络的服装属性检索方法,包括以下步骤:
S01:采用快速的基于区域的卷积神经网络对输入图像进行人像检测;
S02:使用预训练的深度卷积神经网络进行属性特征提取,并保留最后池化层的特征;
S03:通过共享层连接最后池化层保留的特征,并融合所有属性的特征信息;
S04:建立属性树,将服装属性进行分类,将共享层按照分类进行分支,每个属性分支用于一组相关属性预测;
S05:将属性分支的输出串联叠加,进行归一化,通过局部敏感哈希法进行相似度衡量,得出结果。
优选的,所述步骤S01具体包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西交利物浦大学,未经西交利物浦大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710456031.1/2.html,转载请声明来源钻瓜专利网。