[发明专利]一种用于机器人交互对象检测的3D视线方向估计方法有效
申请号: | 201510406557.X | 申请日: | 2015-07-10 |
公开(公告)号: | CN104951808B | 公开(公告)日: | 2018-04-27 |
发明(设计)人: | 程洪;姬艳丽;谢道训;杨路;谢非 | 申请(专利权)人: | 电子科技大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06K9/20;G06K9/00 |
代理公司: | 成都金英专利代理事务所(普通合伙)51218 | 代理人: | 袁英 |
地址: | 610041 四川省成*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 用于 机器人 交互 对象 检测 视线 方向 估计 方法 | ||
1.一种用于机器人交互对象检测的3D视线方向估计方法,其特征在于:它包括以下步骤:
S1.进行头部姿势估计:使用RGBD传感器采集彩色信息和深度信息,根据采集到的信息计算头部的三维位置信息T以及头部姿势R;
S2.计算出得到的头部姿势R与头部基准姿势R0之间的映射矩阵M,其中头部基准姿势R0为用户和机器人正面相对时的头部姿势;
S3.采集人眼图片,并从采集到的人眼图片中提取出人眼区域图像;
S4.得到人眼区域图像后,对瞳孔中心进行检测和计算,得到最终的瞳孔中心pt;
S5.计算在头部坐标系中眼球中心的坐标C0,并根据C0计算出世界坐标系下眼球中心坐标CK和瞳孔中心坐标PK,设计算得到的眼球中心坐标为CK=(Ox,Oy,Oz),瞳孔中心坐标为PK=(Px,Py,Pz),根据这两点计算眼球注视方向g=(X,Y,Z):
然后计算用户视线方向为:
gd=R*M-1*g;
在得到用户视线方向结果之后,还包括一个交互对象判断的步骤,包括以下子步骤:
S61.计算用户的视线方向与机器人视线的角度α;
S62.判断角度α是否小于预先设定的阈值μ:
(1)α小于预先设定的阈值μ,该用户是机器人的交互对象;
(2)α不小于预先设定的阈值μ,该用户不是机器人的交互对象。
2.根据权利要求1所述的一种用于机器人交互对象检测的3D视线方向估计方法,其特征在于:所述的步骤S3包括以下子步骤:
S31.训练强分类器;
S32.采集人眼图片;
S33.使用训练好的强分类器从采集到的人眼图片中提取出人眼区域图像。
3.根据权利要求2所述的一种用于机器人交互对象检测的3D视线方向估计方法,其特征在于:所述的步骤S31包括以下子步骤:
S311.采集大量图片,并将每个采集到的图片分离为不同的样本,得到人眼训练样本数据集,并设定一个最大的训练循环次数t;
S312.对每个样本权重值进行初始化,即初始化每个样本的概率分布;
S313.进行t次循环迭代,每次循环迭代需要进行:在当前的概率分布下训练弱分类器,得到基本的分类器;计算该弱分类器的分类误差率;更新训练数据集中每个样本的权重;
S314.把前面训练得到的t个弱分类器按照权重进行级联相连,得到最终的强分类器。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于电子科技大学,未经电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201510406557.X/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种基于RFID的食品安全信息采集终端
- 下一篇:股市情绪的确定方法和装置