[发明专利]一种基于脑电辅助的增强现实眼镜眼动交互自标定方法有效
申请号: | 201910524885.8 | 申请日: | 2019-06-18 |
公开(公告)号: | CN110428470B | 公开(公告)日: | 2021-12-03 |
发明(设计)人: | 印二威;谢良;邓徐韬;刘璇恒;邓宝松;闫野 | 申请(专利权)人: | 中国人民解放军军事科学院国防科技创新研究院;天津(滨海)人工智能军民融合创新中心 |
主分类号: | G06T7/80 | 分类号: | G06T7/80;G06F3/01 |
代理公司: | 北京辰权知识产权代理有限公司 11619 | 代理人: | 刘广达 |
地址: | 100071*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 辅助 增强 现实 眼镜 交互 标定 方法 | ||
1.一种基于脑电辅助的增强现实眼镜眼动交互自标定方法,其特征在于,包括:
采集眼动图片及相应的增强现实眼镜内三维注视点信息;
通过深度神经网络模型拟合所述眼动图片到注视区域的映射关系;
利用脑电辅助模块在所述注视区域内进行注视点修正,进而进行眼动参数自标定,包括:
将所述注视区域进行分块,在每个分块内设置不同频率的SSVEP视觉刺激信号;
所述脑电辅助模块根据所述SSVEP视觉刺激信号获得脑电信号;
所述脑电辅助模块根据所述脑电信号预测每个分块的注视区域,反复迭代预测过程以获得精确注视点;
对眼动参数进行自标定。
2.根据权利要求1所述的一种基于脑电辅助的增强现实眼镜眼动交互自标定方法,其特征在于,
所述采集眼动图片及相应的增强现实眼镜内三维注视点信息,包括:
采集人员与增强现实眼镜交互时的眼动图片;
在增强现实眼镜内,随机生成注视点,人员在确认注视生成点时,同步保存眼动图片和注视点信息;
采集不同人员在不同佩戴方式下的批量样本。
3.根据权利要求1或2所述的一种基于脑电辅助的增强现实眼镜眼动交互自标定方法,其特征在于,
所述采集眼动图片使用以下相机中的一种:灰度相机、彩色相机、红外相机,并结合图像增强拍摄技术。
4.根据权利要求1所述的一种基于脑电辅助的增强现实眼镜眼动交互自标定方法,其特征在于,
所述深度神经网络模型采用双通道网络模型,双通道分别对左右眼睛图像进行特征处理,获得左右眼动图像的深度特征。
5.根据权利要求4所述的一种基于脑电辅助的增强现实眼镜眼动交互自标定方法,其特征在于,进一步包括:
将采集的眼动图片作为输入,并将其对应的注视点信息作为输出,训练深度神经网络参数。
6.根据权利要求4所述的一种基于脑电辅助的增强现实眼镜眼动交互自标定方法,其特征在于,
所述通过深度神经网络模型拟合所述眼动图片到注视区域的映射关系,包括:
左、右眼动图像分别通过各自神经网络通道进行特征提取;
将左右眼图像特征进行融合,获得融合特征;
根据所述融合特征,进行神经网络特征处理;
利用全连接层,将所述融合特征映射到注视区域。
7.根据权利要求6所述的一种基于脑电辅助的增强现实眼镜眼动交互自标定方法,其特征在于,
通过所述深度神经网络模型预测获得所述注视区域。
8.一种基于脑电辅助的增强现实眼镜眼动交互自标定系统,其特征在于,包括:
采集模块,用于采集眼动图片及相应的增强现实眼镜内三维注视点信息;
拟合模块,用于通过深度神经网络模型拟合所述眼动图片到注视区域的映射关系;
脑电辅助模块,用于在所述注视区域内进行注视点修正,进而进行眼动参数自标定,包括:
将所述注视区域进行分块,在每个分块内设置不同频率的SSVEP视觉刺激信号;
所述脑电辅助模块根据所述SSVEP视觉刺激信号获得脑电信号;
所述脑电辅助模块根据所述脑电信号预测每个分块的注视区域,反复迭代预测过程以获得精确注视点;
对眼动参数进行自标定。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国人民解放军军事科学院国防科技创新研究院;天津(滨海)人工智能军民融合创新中心,未经中国人民解放军军事科学院国防科技创新研究院;天津(滨海)人工智能军民融合创新中心许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910524885.8/1.html,转载请声明来源钻瓜专利网。