[发明专利]一种基于Kinect的多模型融合视频人手分割方法有效

专利信息
申请号: 201310118064.7 申请日: 2013-04-07
公开(公告)号: CN103226708A 公开(公告)日: 2013-07-31
发明(设计)人: 金连文;叶植超;张鑫 申请(专利权)人: 华南理工大学
主分类号: G06K9/46 分类号: G06K9/46;G06K9/62;G06K9/00
代理公司: 广州市华学知识产权代理有限公司 44245 代理人: 蔡茂略
地址: 510641 广*** 国省代码: 广东;44
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明提供了一种基于Kinect的多模型融合视频人手分割方法,包括如下步骤:(1)捕捉视频信息;(2)分别对视频中的图像进行分割得到深度模型、肤色模型和背景模型的分割结果,分割结果的表现形式为二值图;(3)计算三个分割结果的两两重叠率,作为衡量它们各自分割效果好坏的特征,把三个重叠率输入到神经网络;(4)神经网络输出三个系数(即置信系数),置信系数表示出三个模型各自的可靠性,三个分割结果经由置信系数进行加权;(5)对加权后的三个模型分割结果进行线性叠加;(6)叠加的结果经过阈值函数输出最终的二值图,最后分割得到的视频人手区域;(7)更新背景模型。具有成本低和灵活性好等优点。
搜索关键词: 一种 基于 kinect 模型 融合 视频 人手 分割 方法
【主权项】:
一种基于Kinect的多模型融合视频人手分割方法,其特征在于,包括如下步骤:(1)捕捉视频信息;(2)使用深度模型、肤色模型和背景模型分别对视频中的每一帧图像进行分割,得到深度模型分割结果、肤色模型分割结果和背景模型分割结果,所述深度模型分割结果、肤色模型分割结果和背景模型分割结果均为二值图;(3)计算深度模型的分割结果、肤色模型的分割结果和背景模型的分割结果的两两重叠率,把所述的三个重叠率输入到神经网络;(4)神经网络输出置信系数,所述置信系数表征深度模型的可靠性、肤色模型的可靠性和背景模型的可靠性,所述深度模型的分割结果、肤色模型的分割结果和背景模型的分割结果经由置信系数进行加权;(5)对加权后的深度模型分割结果、肤色模型分割结果和背景模型分割结果进行线性叠加;(6)叠加后的结果经过阈值函数输出二值图,得到视频人手区域;(7)利用步骤(6)得到的非手部区域更新背景模型。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华南理工大学,未经华南理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201310118064.7/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top