[发明专利]基于四元组深度学习的少数民族服饰图像检索方法在审
申请号: | 202110690350.5 | 申请日: | 2021-06-22 |
公开(公告)号: | CN113420173A | 公开(公告)日: | 2021-09-21 |
发明(设计)人: | 谢武;崔梦银;张径舟;卢阳;李玉婷;王兴宇;谢建丰;陈金龙;强保华 | 申请(专利权)人: | 桂林电子科技大学 |
主分类号: | G06F16/58 | 分类号: | G06F16/58;G06N3/04;G06N3/08 |
代理公司: | 桂林市华杰专利商标事务所有限责任公司 45112 | 代理人: | 陆梦云 |
地址: | 541004 广西*** | 国省代码: | 广西;45 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 四元组 深度 学习 少数 民族服饰 图像 检索 方法 | ||
1.基于四元组深度学习的少数民族服饰图像检索方法,其特征是:包括如下步骤:
(1)少数民族服饰图像数据集的处理:采集少数民族服饰图片,并对图片进行归一化处理成CNN模型需要的数据输入格式;
(2)少数民族服饰图像数据增强:通过带颜色恢复的多尺度Retinex算法对少数民族服饰图像数据集进行增强以获得高质量的图像;
(3)划分少数民族服饰图像数据集:按照8∶1∶1的比例将数据集拆分成训练集、验证集和检索测试集;
(4)模型的构建:通过四元组损失函数,构建卷积神经网络的模型;
(5)模型的训练和特征数据库的构建:通过步骤(4)构建好的模型,对少数民族服饰图像进行一系列的卷积、池化和全连接操作,提取少数民族服饰图像的特征,并构建特征向量数据库;
(6)模型的测试:使用训练好的模型在检索测试集上进行检索,并评估该模型的泛化能力及检索准确度。
2.根据权利要求1所述的少数民族服饰图像检索方法,其特征是:步骤(2)所述带颜色恢复的多尺度Retinex算法是:
对各个单尺度加权输出相加称为MSR,MSR的数学公式可表示为:
{logIi(m,n)-log[Ii(m,n)*Mj(m,n)]}
式中N表示尺度的使用数量,I表示(R,G,B)中的颜色通道,Mj(m,n)代表环绕功能;环绕函数可表示为:
式中σj表示高斯分布的标准差,在MSRCR需要引进RGB三通道引入权重,将MSR输出乘以颜色恢复功能已达到目标;颜色恢复因子可表示为:
式中N表示光谱带的数量,f()是色彩映射空间的函数,ai(m,n)表示第i个光谱带的色彩恢复系数;得到MSRCR的公式如下:
Ri(m,n)=ai(m,n)RMSR(m,n)。
3.根据权利要求1所述的少数民族服饰图像检索方法,其特征是:步骤(4)所述四元组损失函数是在三元组损失函数基础上得出的,比三元组多了一个高度相似样本,其中四元组的组成部分是锚点(qry),正样本(pos),负样本(neg),高度相似样本(hig);三元损失函数可表示为如下:
上式中:f(x)表示输入图像x的特征向量,a表示控制损失产生的条件,I[b]=max(b,0);四元组损失函数可表示为如下:
其中a1,a2,a3表示不同的距离间隔;在四元组损失函数学习特征时还需要满足如下的约束条件:
构建好四元组损失函数后,将损失函数应用在基本的网络模型中,以少数民族服饰图像四元组的形式输入图像输入到共享基础网络中,通过少数民族服饰图像的监督学习四元组,在欧几里德空间中理想分布,提高图像检索的准确率。
4.根据权利要求1所述的少数民族服饰图像检索方法,其特征是:步骤(5)所述模型的训练和特征数据库的构建,包括如下步骤:
①通过将步骤(3)中划分的训练集以四元组的形式输入,使用迁移学习的方法对少数民族服饰图像的数据集上的预训练权重初始化步骤(4)构建的网络模型;
②根据步骤(2)增强后的少数民族图像数据集对模型中的参数进行调整,同时记录不同网络模型的精度,选取出好的模型为最终的少数民族服饰检索的特征提取模型;
③使用训练好的模型提取网络模型的倒数第二层的全连接层的特征作为少数民族服饰图像的特征表示,得到4096维的图像特征表示向量,特征提取进行完成图像特征数据库的构建。
5.根据权利要求1所述的少数民族服饰图像检索方法,其特征是:步骤(6)模型的测试方式如下:将步骤(3)中的少数民族测试集作为查询的图像,使用训练好的模型提取该少数民族图像的特征,使用汉明距离与步骤(5)构建好的特征数据库中的所有特征进行相似度度量,并按照相似度大小返回检索的结果;最后在少数民族服饰数据集上对四元组损失和三元组损失的MAP学习曲线进行比较,得出四元组损失函数比三元组损失函数的平均检索准确率高。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于桂林电子科技大学,未经桂林电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110690350.5/1.html,转载请声明来源钻瓜专利网。