[发明专利]一种中心排序损失及弱监督物体定位的细粒度检索方法在审
申请号: | 201910349620.9 | 申请日: | 2019-04-28 |
公开(公告)号: | CN110334235A | 公开(公告)日: | 2019-10-15 |
发明(设计)人: | 纪荣嵘;林贤明;郑侠武 | 申请(专利权)人: | 厦门大学 |
主分类号: | G06F16/58 | 分类号: | G06F16/58;G06F16/583;G06F16/55;G06K9/46;G06K9/62 |
代理公司: | 厦门南强之路专利事务所(普通合伙) 35200 | 代理人: | 马应森 |
地址: | 361005 *** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 物体定位 神经网络 细粒度 样本集 图像 排序 蒙版 检索 集合 标签 高层语义信息 参数更新 前景物体 损失函数 位置背景 训练集合 粗定位 区分度 监督 维度 抽取 画像 测试 融合 分割 | ||
1.一种中心排序损失及弱监督物体定位的细粒度检索方法,其特征在于包括以下步骤:
1)给定标好的细粒度图像-标签对集合,将图像-标签对集合划分为训练照片样本集、训练画像样本集和测试照片样本集;
2)利用训练集合训练一个神经网络;
3)对神经网络利用如下公式计算对应特征的梯度,进行参数更新:
其中,fi为图像输入神经网络之后的特征,αi为每一个类别的中心,在一个数据集中,假设有N张图像,在N张图像当中,对应的有M个类别,那么针对每一个类别,有张图像,每一个类别的中心α为这些类别特征的平均值;
4)步骤2)与步骤3)对神经网络进行训练之后,通过CNN高层语义信息的物体粗定位,对于大小为m×n的图像I,抽取最后一个卷积层特征X(h×w×c),再沿着第三个维度方向进行加和操作其数学上的定义为为φ(X)=A,然后对于A,计算A的平均值a,大于平均值的位置置为1,小于平均值的位置置为0,最后的物体蒙版M为:
其中,Mi,j为M具体的h×w个坐标系中对应的点,最后,通过M从h×w差值到m×n上,来获得原图像大小级别的图像定位;
5)根据步骤4)得到的图像蒙版,当图像蒙版值为1时,定义这个位置所包含的物体为前景物体,反之,当值为0时,定义这个位置背景;然后利用两个混合高斯模型对前景的物体和背景分别进行建模,每一个混合高斯模型包含K=5个部分,对于一个图像I,定义θf为前景物体模型,θb为背景模型,yp为具体像素点的标签p,并且改点的RGB像素值为vp;目标函数为:
E(yp,θ)=(1-yp)log(p(vp;θb))+yplog(p(vp;θf))
其中,Y为每一个像素点的标签,E(yp,yq)为像素点之间的成对损失,希望临近之间的像素点尽可能的接近;基于CNN高层语义信息抽取的粗糙定位之后,当前步骤中的公式会学习一个对于前景物体的分布,最后,通过该分布来获得最后的物体定位图像;
6)对于给定的物体定位分割,重新抽取更加具有区分度的特征如下:
其中,M为步骤4)中提到的蒙版,并且经过了步骤5)的到的物体的精确分割,Δi,j为一个卷积神经网络的特征在具体位置下卷积特征的感知野;当特征的感知野与物体分割的重叠部分大于某个阈值时,选择该特征作为有效特征;最后利用全局平均池化以及全局最大池化对选择的特征做聚合操作,从而利用该特征进行最后的检索。
2.如权利要求1所述一种中心排序损失及弱监督物体定位的细粒度检索方法,其特征在于在步骤2)中,所述利用训练集合训练一个神经网络的具体方法为:定义标签相同的图像为相似图像,反之,不同的图像为不相似图像;首先把具体的图像I输入到神经网络中去,神经网络最后输出特征fi利用下标区分具体的样本,对于一个批次,利用如下公式计算损失:
其中,fi为图像输入神经网络之后的特征,αi为每一个类别的中心,在一个批次当中,得到图像特征之后,利用加和操作获得中心点。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于厦门大学,未经厦门大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910349620.9/1.html,转载请声明来源钻瓜专利网。