[发明专利]一种基于Kinect的多模型融合视频人手分割方法有效
申请号: | 201310118064.7 | 申请日: | 2013-04-07 |
公开(公告)号: | CN103226708A | 公开(公告)日: | 2013-07-31 |
发明(设计)人: | 金连文;叶植超;张鑫 | 申请(专利权)人: | 华南理工大学 |
主分类号: | G06K9/46 | 分类号: | G06K9/46;G06K9/62;G06K9/00 |
代理公司: | 广州市华学知识产权代理有限公司 44245 | 代理人: | 蔡茂略 |
地址: | 510641 广*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明提供了一种基于Kinect的多模型融合视频人手分割方法,包括如下步骤:(1)捕捉视频信息;(2)分别对视频中的图像进行分割得到深度模型、肤色模型和背景模型的分割结果,分割结果的表现形式为二值图;(3)计算三个分割结果的两两重叠率,作为衡量它们各自分割效果好坏的特征,把三个重叠率输入到神经网络;(4)神经网络输出三个系数(即置信系数),置信系数表示出三个模型各自的可靠性,三个分割结果经由置信系数进行加权;(5)对加权后的三个模型分割结果进行线性叠加;(6)叠加的结果经过阈值函数输出最终的二值图,最后分割得到的视频人手区域;(7)更新背景模型。具有成本低和灵活性好等优点。 | ||
搜索关键词: | 一种 基于 kinect 模型 融合 视频 人手 分割 方法 | ||
【主权项】:
一种基于Kinect的多模型融合视频人手分割方法,其特征在于,包括如下步骤:(1)捕捉视频信息;(2)使用深度模型、肤色模型和背景模型分别对视频中的每一帧图像进行分割,得到深度模型分割结果、肤色模型分割结果和背景模型分割结果,所述深度模型分割结果、肤色模型分割结果和背景模型分割结果均为二值图;(3)计算深度模型的分割结果、肤色模型的分割结果和背景模型的分割结果的两两重叠率,把所述的三个重叠率输入到神经网络;(4)神经网络输出置信系数,所述置信系数表征深度模型的可靠性、肤色模型的可靠性和背景模型的可靠性,所述深度模型的分割结果、肤色模型的分割结果和背景模型的分割结果经由置信系数进行加权;(5)对加权后的深度模型分割结果、肤色模型分割结果和背景模型分割结果进行线性叠加;(6)叠加后的结果经过阈值函数输出二值图,得到视频人手区域;(7)利用步骤(6)得到的非手部区域更新背景模型。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华南理工大学,未经华南理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201310118064.7/,转载请声明来源钻瓜专利网。