[发明专利]图像标签确定方法、装置及终端有效
申请号: | 201810260522.3 | 申请日: | 2018-03-27 |
公开(公告)号: | CN108664989B | 公开(公告)日: | 2019-11-01 |
发明(设计)人: | 张志伟;杨帆 | 申请(专利权)人: | 北京达佳互联信息技术有限公司 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04 |
代理公司: | 北京润泽恒知识产权代理有限公司 11319 | 代理人: | 莎日娜 |
地址: | 100084 北京市海淀区*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 标签 图像标签 特征图 标签分类 分类器 分类 终端 图像 卷积神经网络 适应性调整 输入分类器 图像分类 图像类型 图像输入 预测结果 预测 概率 筛选 | ||
1.一种图像标签确定方法,其特征在于,所述方法包括:
将图像输入卷积神经网络中,确定所述图像的特征图;
将所述特征图输入分类器中;其中,所述分类器中包含多个分类任务,每个分类任务为多标签分类任务或单标签分类任务;其中,具有多标签分类任务的分类任务和具有单标签分类任务的分类任务同时存在;
通过所述分类器中的各分类任务,分别预测所述特征图对应的标签;其中,每个标签对应一个概率值;
依据概率值从预测得到的各标签中筛选所述图像的标签;
其中,所述通过所述分类器中的各分类任务,分别预测所述特征图对应的标签的步骤,包括:
通过所述分类器将所述特征图进行降维处理,得到中间特征图;
通过所述分类器将所述中间特征图平均池化,得到所述中间特征图在各分类任务下对应的特征向量;其中,所述每个分类任务下的特征向量中包含多个点,每个点对应一个所述分类任务中的标签以及一个概率值。
2.根据权利要求1所述的方法,其特征在于,在所述将图像输入卷积神经网络中,确定所述图像的特征图的步骤之前,所述方法还包括:
构建各分类任务对应的样本图像;
初始化图像标签分类模型;
基于各分类任务对应的样本图像,对所述图像标签分类模型中的分类器进行训练。
3.根据权利要求2所述的方法,其特征在于,所述构建各分类任务对应的样本图像的步骤,包括:
针对每个样本图像,确定所述样本图像所属的分类任务,以及所述样本图像在所述分类任务下对应的目标标签;
将所述样本图像在所述目标标签位置处的概率值设置为1,将所述样本图像在所述各分类任务下除所述目标标签外的标签位置处的概率值设置为0,其中,每个标签在所属分类任务中对应一个位置。
4.根据权利要求2所述的方法,其特征在于,所述基于各分类任务对应的样本图像,对所述图像标签分类模型中的分类器进行训练的步骤,包括:
将样本图像输入卷积神经网络中,确定所述样本图像的第一特征图;
将所述第一特征图输入所述分类器中进行降维处理,得到第二特征图;
将所述第二特征图进行平均池化,得到所述第二特征图对应的第一特征向量;其中,所述第一特征向量中包括多个点,每个点对应一个所述分类器中包含的标签以及一个概率值;
计算所述分类器的目标损失函数,在所述第一特征向量中各点的偏导数得到梯度值;其中,所述分类器中包含每个分类任务对应一个损失函数,各所述损失函数加权之和为所述目标损失函数;
依据所述梯度值对所述分类器对应的模型参数进行更新。
5.根据权利要求1所述的方法,其特征在于,所述依据概率值从预测得到的各标签中筛选所述图像的标签的步骤,包括:
从预测得到的各标签中,筛选概率值高于预设概率阈值的第一标签;
将所述第一标签确定为所述图像的标签。
6.一种图像标签确定装置,其特征在于,所述装置包括:
确定模块,被配置为将图像输入卷积神经网络中,确定所述图像的特征图;
输入模块,被配置为将所述特征图输入分类器中;其中,所述分类器中包含多个分类任务,每个分类任务为多标签分类任务或单标签分类任务;其中,具有多标签分类任务的分类任务和具有单标签分类任务的分类任务同时存在;
预测模块,被配置为通过所述分类器中的各分类任务,分别预测所述特征图对应的标签;其中,每个标签对应一个概率值;
标签确定模块,被配置为依据概率值从预测得到的各标签中筛选所述图像的标签;
其中,所述预测模块包括:
降维子模块,被配置为通过所述分类器将所述特征图进行降维处理,得到中间特征图;
处理子模块,被配置为通过所述分类器将所述中间特征图平均池化,得到所述中间特征图在各分类任务下对应的特征向量;其中,所述每个分类任务下的特征向量中包含多个点,每个点对应一个所述分类任务中的标签以及一个概率值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京达佳互联信息技术有限公司,未经北京达佳互联信息技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810260522.3/1.html,转载请声明来源钻瓜专利网。