[发明专利]标注图像中区域与标注对应关系的确定方法有效

专利信息
申请号: 201210184510.X 申请日: 2012-06-06
公开(公告)号: CN102737244A 公开(公告)日: 2012-10-17
发明(设计)人: 刘咏梅 申请(专利权)人: 哈尔滨工程大学
主分类号: G06K9/46 分类号: G06K9/46;G06T7/00
代理公司: 暂无信息 代理人: 暂无信息
地址: 150001 黑龙江省哈尔滨市南岗区*** 国省代码: 黑龙江;23
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明提供的是一种标注图像中区域与标注对应关系的确定方法。首先,将视觉描述转换为标注字的权值,代表与视觉的相关程度,利用Topic模型提取场景类别,并将场景内图像的区域聚类为视觉概念。然后在不同场景中,采用信度传播方法降低视觉概念的标注不确定性,即在不同场景间寻找相同或同义的标注字,令其在视觉相似的区域间传播。最后,构建每个场景下的贝叶斯网络,获得视觉概念的标注结果。通过对图像分割区域的标识结果进行融合,最终可以获得图像物体语义级的分割与识别结果。本发明避免了对单幅图像的每个区域单独进行标注,能够有效地提高算法效率。能够方便有效地实现非标注图像的语义内容分析。
搜索关键词: 标注 图像 区域 对应 关系 确定 方法
【主权项】:
一种标注图像中区域与标注对应关系的确定方法,其特征是:步骤1,特征提取:对学习用的标注图像,采用模糊K‑均值方法进行图像过分割,获得区域视觉描述,并利用信度传播方法,使标注字在视觉近邻间传播,将视觉描述转换标注字权值;步骤2,提取场景语义类别:获得所需的图像特征后,利用概率潜在语义分析模型对学习用的标注图像进行自动场景语义分类,即合理地运用图像的视觉和标注字之间高、低级语义信息的互补性,有效地自动构建出图像语义类别;步骤3,生成视觉概念:在确定了图像的场景语义类别后,按高斯混合模型对场景内的视觉分布进行建模,模型个数由场景内标注字个数指导确定,每个视觉高斯分布模型对应一个视觉概念;步骤4,构建不同场景间的视觉概念近邻图:近邻图中的每个节点对应一个视觉概念,视觉概念分布的相似性采用彼此的KL距离;步骤5,场景间视觉概念的标注传播:利用数据字典在不同场景间寻找相同或同义的标注字,令其在视觉相似的区域间传播;步骤6,场景下的贝叶斯网络构造:构造场景内视觉概念的贝叶斯网络结构,通过场景内概念间的贝叶斯推理,获得确切的标注信息;步骤7,视觉语义网络的建立:将视觉近邻图中具有连接关系、并最终具有一致标注的视觉概念合并成一个节点,形成一个视觉语义网络图;步骤8,对非标注图像的区域标注:对非标注图像进行语义内容分析时,待分析图像每个区域的视觉描述激活多个语义概念,采用信度传播方法让可能的标注在激活的语义网络中传播,收敛后获得分割区域的标注结果;图像间的相似性度量采用推土机距离方法。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨工程大学,未经哈尔滨工程大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201210184510.X/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top