[发明专利]一种基于双目视觉的高精度虚拟装配系统算法有效
申请号: | 201410596344.3 | 申请日: | 2014-10-28 |
公开(公告)号: | CN104408760B | 公开(公告)日: | 2017-12-29 |
发明(设计)人: | 张立国;王鹏;金梅;蒋再毅 | 申请(专利权)人: | 燕山大学 |
主分类号: | G06T13/40 | 分类号: | G06T13/40;G06T13/80;G06F17/50 |
代理公司: | 秦皇岛一诚知识产权事务所(普通合伙)13116 | 代理人: | 李合印 |
地址: | 066004 河北省*** | 国省代码: | 河北;13 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 一种基于双目视觉的高精度虚拟装配系统算法,该算法通过Kinect传感器采集用户运动空间信息作为虚拟装配系统的输入信息,应用OpenGL建立手部模型,将建立的手部模型与采集的手部图像进行对比,计算得到手部模型与手部图像的相似度,采用改进的粒子群优化算法,最终得到采集图像的手部模型,基于手部模型以及Kinect传感器的标定信息,最终渲染得到深度图像,实现对手势的跟踪识别,完成虚拟装配系统的信息输入,进而实现高精度虚拟装配过程。本发明能实现对手势进行准确稳定的三维实时跟踪,不需要特殊的标记或复杂的图像采集设备,降低了硬件设备的要求和成本;也不需要训练样本,从而更容易进行应用扩展。 | ||
搜索关键词: | 一种 基于 双目 视觉 高精度 虚拟 装配 系统 算法 | ||
【主权项】:
一种基于双目视觉的高精度虚拟装配系统算法,其特征在于该算法内容如下:通过Kinect传感器采集用户运动空间信息,包括上肢动作信息、手势信息包括静态手势和动态手势信息作为虚拟装配系统的输入信息,从而使用自然习惯动作完成虚拟装配过程;采用Kinect传感器拍摄手部姿态的彩色图像和对应的深度图像信息作为输入信息,通过肤色检测结合深度信息,分割出手部图像,得到观察的模型;应用OpenGL建立手部模型,采用球体、圆柱体、椭球体和椎体四个基本图元,建立一个用27个参数表征的具有26个自由度的3D手部模型;将建立的模型与采集的手部图像进行对比,计算得到模型与手部图像的相似度,采用改进的粒子群优化算法,通过相异性计算公式E(h,O),估算出观察对象与模型对象之间的相异程度,不断优化手部模型的27个参数,使得相似度度量达到最大,最终得到采集图像的手部模型,基于手部模型以及Kinect传感器的标定信息,最终渲染得到深度图像,实现对手势的跟踪识别,完成虚拟装配系统的信息输入,进而实现高精度虚拟装配过程,其中所述的相异性计算公式E(h,O)为:E(h,O)=D(O,h,C)+λk·kc(h)其中λk是一个标准化因数,C表示摄像机的校准信息,h代表模型对象,O代表观察对象;函数D(O,h,C)表示为:函数D(O,h,C)中的绝对值表示观察对象与模型对象的箝位深度差,ε用来防止分母为零。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于燕山大学,未经燕山大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201410596344.3/,转载请声明来源钻瓜专利网。
- 上一篇:电子签到方法
- 下一篇:一种向驾驶场景视频中添加雾霾效果的方法及系统