[发明专利]基于神经网络的自动图像标注方法、系统、装置和介质有效

专利信息
申请号: 201910690299.0 申请日: 2019-07-29
公开(公告)号: CN110490236B 公开(公告)日: 2021-08-24
发明(设计)人: 陈灯;吴琼;魏巍;张彦铎;吴云韬;李晓林;于宝成;鞠剑平;刘玮;段功豪;彭丽;周华兵;唐剑影;李迅;徐文霞;王逸文 申请(专利权)人: 武汉工程大学;武汉引行科技有限公司;武汉创逸灵科技有限公司
主分类号: G06K9/62 分类号: G06K9/62;G06N3/04;G06N3/08
代理公司: 北京轻创知识产权代理有限公司 11212 代理人: 徐苏明
地址: 430000 湖北省武*** 国省代码: 湖北;42
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 基于 神经网络 自动 图像 标注 方法 系统 装置 介质
【权利要求书】:

1.一种基于神经网络的自动图像标注方法,其特征在于,包括以下步骤:

获取实验数据集,并利用预先训练好的卷积神经网络模型提取所述实验数据集的图像特征;

从所述实验数据集的测试集中获取待标注图像,并根据所述图像特征,在所述实验数据集的训练集中,采用k近邻方法计算得到所述待标注图像的邻域图像集和与所述邻域图像集对应的第一标签域;

构建所述第一标签域与所述训练集对应的第二标签域之间的标签语义关联模型,根据所述标签语义关联模型,在所述第二标签域中计算得到与所述第一标签域中每个第一标签相关联的第三标签域;

计算所述待标注图像与所述邻域图像集中每个邻域图像之间的相似度,根据所有相似度得到所述第一标签域中每个第一标签成为所述待标注图像的目标标签的第一概率,并根据所有第一概率和所述标签语义关联模型得到所述第三标签域中每个第三标签成为所述待标注图像的所述目标标签的第二概率;

根据所有相似度、所有第一概率和所有第二概率,得到所述待标注图像的所述目标标签,并根据所述目标标签完成自动图像标注。

2.根据权利要求1所述的基于神经网络的自动图像标注方法,其特征在于,在获取所述实验数据集之后还包括以下步骤:

获取ImageNet数据集,对所述ImageNet数据集进行训练,得到训练模型;

利用所述训练模型对所述实验数据集进行迁移学习,得到训练好的所述卷积神经网络模型。

3.根据权利要求1所述的基于神经网络的自动图像标注方法,其特征在于,得到所述邻域图像集和与所述邻域图像集对应的所述第一标签域的具体步骤包括:

根据所述图像特征,计算所述待标注图像与所述训练集中每个训练图像之间的欧式距离;

将所有欧式距离按照从小到大的顺序排序,得到距离序列,并从所述距离序列的前端开始连续选取k个欧式距离,根据k个欧式距离一一对应的训练图像得到所述邻域图像集;

根据所述邻域图像集得到与所述邻域图像集对应的第一标签域。

4.根据权利要求3所述的基于神经网络的自动图像标注方法,其特征在于,所述第二标签域中的第i个第二标签与所述第一标签域中的第j个第一标签之间的所述标签语义关联模型具体为:

其中,wi为所述第二标签域中的第i个第二标签,wj为所述第一标签域中的第j个第一标签,I(wi)为在所述训练集中,出现第i个第二标签的第二图像集合,I(wj)为在所述邻域图像集中,出现第j个第一标签的第一图像集合,p1(wi|wj)为第i个第二标签与第j个第一标签之间的标签语义关联概率;

在所述第二标签域中,计算与所述第一标签域中的第j个第一标签相关联的第三标签的具体公式为:

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于武汉工程大学;武汉引行科技有限公司;武汉创逸灵科技有限公司,未经武汉工程大学;武汉引行科技有限公司;武汉创逸灵科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/201910690299.0/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top