[发明专利]一种用于机器人交互对象检测的3D视线方向估计方法有效
申请号: | 201510406557.X | 申请日: | 2015-07-10 |
公开(公告)号: | CN104951808B | 公开(公告)日: | 2018-04-27 |
发明(设计)人: | 程洪;姬艳丽;谢道训;杨路;谢非 | 申请(专利权)人: | 电子科技大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06K9/20;G06K9/00 |
代理公司: | 成都金英专利代理事务所(普通合伙)51218 | 代理人: | 袁英 |
地址: | 610041 四川省成*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种用于机器人交互对象检测的3D视线方向估计方法,包括以下步骤S1头部姿势估计;S2.映射矩阵计算;S3.人眼检测;S4.瞳孔中心检测;S5.视线方向计算;S6.交互对象判断。本发明提供了一种用于机器人交互对象检测的3D视线方向估计方法,使用RGBD传感器头部姿势的估计并应用于机器人中,系统仅采用一个RGBD传感器,无需其他的传感器,具有硬件简单,实现容易的特点;训练强分类器来进行人眼检测,实现简单,检测跟踪效果好;在检测瞳孔中心时,采用投影积分法、霍夫变换法和透视校正,能够得到比较准确的瞳孔中心。 | ||
搜索关键词: | 一种 用于 机器人 交互 对象 检测 视线 方向 估计 方法 | ||
【主权项】:
一种用于机器人交互对象检测的3D视线方向估计方法,其特征在于:它包括以下步骤:S1.进行头部姿势估计:使用RGBD传感器采集彩色信息和深度信息,根据采集到的信息计算头部的三维位置信息T以及头部姿势R;S2.计算出得到的头部姿势R与头部基准姿势R0之间的映射矩阵M,其中头部基准姿势R0为用户和机器人正面相对时的头部姿势;S3.采集人眼图片,并从采集到的人眼图片中提取出人眼区域图像;S4.得到人眼区域图像后,对瞳孔中心进行检测和计算,得到最终的瞳孔中心pt;S5.计算在头部坐标系中眼球中心的坐标C0,并根据C0计算出世界坐标系下眼球中心坐标CK和瞳孔中心坐标PK,设计算得到的眼球中心坐标为CK=(Ox,Oy,Oz),瞳孔中心坐标为PK=(Px,Py,Pz),根据这两点计算眼球注视方向g=(X,Y,Z):X-OxPx-Ox=Y-OyPy-Oy=Z-OzPz-Oz,]]>然后计算用户视线方向为:gd=R*M‑1*g;在得到用户视线方向结果之后,还包括一个交互对象判断的步骤,包括以下子步骤:S61.计算用户的视线方向与机器人视线的角度α;S62.判断角度α是否小于预先设定的阈值μ:(1)α小于预先设定的阈值μ,该用户是机器人的交互对象;(2)α不小于预先设定的阈值μ,该用户不是机器人的交互对象。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于电子科技大学,未经电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201510406557.X/,转载请声明来源钻瓜专利网。
- 上一篇:一种基于RFID的食品安全信息采集终端
- 下一篇:股市情绪的确定方法和装置