[发明专利]虚拟装配中融合眼动跟踪和手势识别的人机交互方法和装置有效

专利信息
申请号: 201910670994.0 申请日: 2019-07-24
公开(公告)号: CN110362210B 公开(公告)日: 2022-10-11
发明(设计)人: 杨晓晖;察晓磊;徐涛;冯志全;吕娜;范雪 申请(专利权)人: 济南大学
主分类号: G06F3/01 分类号: G06F3/01;G06V40/20;G06V40/10;G06V40/18;G06V10/764
代理公司: 济南圣达知识产权代理有限公司 37221 代理人: 李琳
地址: 250022 山东*** 国省代码: 山东;37
权利要求书: 查看更多 说明书: 查看更多
摘要: 本公开提供了一种虚拟装配中融合眼动跟踪和手势识别的人机交互方法和装置,根据获取到眼动数据,进行注视点跟踪;根据获取的手势信息,进行手势的识别,对得到的手势识别数据和眼动数据进行标注,构成训练集,构建多流卷积神经网络‑长短期记忆网络模型,所述网络模型利用训练集进行自我学习;将训练得到的最优网络模型应用在虚拟装配过程,获取虚拟装配过程的眼动数据和手势信息,提取眼动与手势特征,根据特征信息分析得出操作人员的行为类别进而完成装配任务。解决了单一模态下对相似行为的误判问题,并利用深度学习算法的优势,以较高的准确率识别视频中操作人员的行为,完成虚拟装配任务,实现人机交互。
搜索关键词: 虚拟 装配 融合 跟踪 手势 识别 人机交互 方法 装置
【主权项】:
1.一种虚拟装配中融合眼动跟踪和手势识别的人机交互方法,其特征是:包括以下步骤:根据获取到眼动数据,进行注视点跟踪;根据获取的手势信息,进行手势的识别;对得到的手势识别数据和眼动数据进行标注,构成训练集,构建多流卷积神经网络‑长短期记忆网络模型,所述网络模型利用训练集进行自我学习;将训练得到的最优网络模型应用在虚拟装配过程,获取虚拟装配过程的眼动数据和手势信息,提取眼动与手势特征,根据特征信息分析得出操作人员的行为类别进而完成装配任务。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于济南大学,未经济南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201910670994.0/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top