[发明专利]一种基于AR眼镜的多仪表同时识别及空间定位方法及系统有效
申请号: | 201910762186.7 | 申请日: | 2019-08-19 |
公开(公告)号: | CN110569849B | 公开(公告)日: | 2022-04-12 |
发明(设计)人: | 华晨;张云龙 | 申请(专利权)人: | 北京猫眼视觉科技有限公司 |
主分类号: | G06V30/148 | 分类号: | G06V30/148 |
代理公司: | 北京市环球律师事务所 11663 | 代理人: | 王瀚 |
地址: | 100088 北京市西*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 ar 眼镜 仪表 同时 识别 空间 定位 方法 系统 | ||
1.一种基于AR眼镜的多仪表同时识别及空间定位方法,包括如下步骤:
步骤S1,仪表图像获取:利用AR眼镜的摄像设备获得场景图像用于识别仪表读数,所述场景图像包括仪表位置识别图;
步骤S2,仪表位置和参数的确定:将步骤S1中获得的图像传输给后台服务器,根据所述仪表位置识别图确定所述场景图像中仪表的位置和参数;
步骤S3,仪表图像数值识别:服务器端执行图像识别算法,根据仪表盘刻度指示范围的起点和终点,以及指针图形的指向角度这三个因素,计算出这个指针指向刻度条的百分比作为结果返回给前端;
步骤S4,前端获得后端计算的结果后,再匹配预先设定好的仪表基本对应数据,得出最终的仪表数据结果;
步骤S5,定位识别图图像优化:对AR眼镜获得的场景定位识别图图像,读取其图像像素信息,并进行优化矫正保存;
步骤S6,特征点提取:根据优化后图像的图像像素信息,提取出图片纹理特征点,构建特征点目标信息;
步骤S7,识别跟踪:完成特征点提取之后,开始启动识别跟踪,首先获取到相机实时画面,并进行特征点识别,将实时画面的特征点信息与目标信息进行匹配,当稳定达到匹配阈值即成功匹配,并根据特征点群的位置变化,实时计算并更新移动终端设备在坐标系中的位置;
步骤S8,内容展示:生成仪表数据的虚拟图像并加载在终端设备显示画面中,所述虚拟图像始终都会绑定在实体设备的固定位置进行显示。
2.根据权利要求1所述的方法,其特征在于,步骤S3中,所述仪表盘为多个。
3.根据权利要求1所述的方法,其特征在于,步骤S8中,所述虚拟图像可以是下列项目中的一项或者几项,包括仪表读数、正常读数范围、环比上次检测结果、近期检测数据趋势图。
4.根据权利要求1所述的方法,其特征在于,步骤S6中,根据步骤S5优化后的图像像素信息,通过算法提取出图片纹理特征点,包括特征点群及位置关系信息,构建x坐标范围在[l,r]、y坐标范围在[b,t]、z坐标范围在[n,f]的视域体,建立视域体投影矩阵:
建立若干特征点的二维坐标数组T={(p1,p2),(p3,p4),(p5,p6)....},将二维特征点转换为齐次坐标T1={(p1,p2,N,1),(p3,p4,N,1),(p5,p6,N,1)....},其中N为空间点距离终端设备屏幕的距离;之后绑定模型用的空间坐标P=T1*Tj-1,即齐次坐标与投影矩阵的逆矩阵相乘所得;该步骤中可以采集若干个特征点群,设定出一个原点,确定每个特征点群和这个原点的位置和角度,构建特征点目标信息。
5.根据权利要求1所述的方法,其特征在于,在步骤S7的匹配过程中,移动设备摄像头的拍摄位置朝向步骤S1中捕捉的真实场景图像所在的区域,使真实场景与系统内保存的图像信息进行匹配,如果由于拍摄位置偏差没有匹配成功,可以移动设备的位置,当摄像头识别出特征点,系统会自动进行匹配,当稳定达到匹配阈值即成功匹配。
6.根据权利要求5所述的方法,其特征在于,在步骤S7中成功匹配后,根据特征点群位置中心建立空间虚拟坐标系,根据特征点群的位置变化,通过单应性变换实时计算与之匹配的矩阵投影角度并实时更新移动设备在空间坐标系中的位置。
7.根据权利要求1所述的方法,其特征在于,在步骤S8中,由于终端设备在虚拟坐标系内的移动,都会通过步骤S7不停的计算位置,实时更新移动设备在空间坐标系中的位置,所述空间坐标系中的位置为距离和角度,通过所述位置,就可以计算出观察者应该从其所在角度观察到的虚拟图像,在此过程中虚拟图像始终都会在终端屏幕中间进行展示。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京猫眼视觉科技有限公司,未经北京猫眼视觉科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910762186.7/1.html,转载请声明来源钻瓜专利网。