[发明专利]基于投影的触控点定位方法、投影设备及存储介质在审
申请号: | 201811563670.9 | 申请日: | 2018-12-20 |
公开(公告)号: | CN109660779A | 公开(公告)日: | 2019-04-19 |
发明(设计)人: | 陈维亮 | 申请(专利权)人: | 歌尔科技有限公司 |
主分类号: | H04N9/31 | 分类号: | H04N9/31;G06F3/0484;G06T7/50 |
代理公司: | 北京太合九思知识产权代理有限公司 11610 | 代理人: | 张爱 |
地址: | 266104 山东省青岛*** | 国省代码: | 山东;37 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 触控点 投影画面 连通区域 像素点 存储介质 投影设备 投影 触控点位置 差值图像 景深图像 实际位置 申请 | ||
1.一种基于投影的触控点定位方法,适用于投影设备,其特征在于,包括:
获取第一交互体未与第一投影画面交互时的第一景深图像以及所述第一交互体与所述第一投影画面交互时的第二景深图像,所述第一投影画面由所述投影设备投射形成;
根据所述第一景深图像和所述第二景深图像之间的深度差异,获取深度差值图像;
从所述深度差值图像中,识别出像素点的深度值在预设的第一深度值范围内的至少一个目标连通区域,所述至少一个目标连通区域与所述第一交互体在所述第一投影画面上产生的至少一个触控点对应;
根据所述至少一个目标连通区域中深度值在预设的第二深度值范围内的像素点的位置坐标,分别确定所述至少一个触控点的位置;其中,所述第二深度值范围包含于所述第一深度值范围。
2.根据权利要求1所述的方法,其特征在于,所述根据所述第一景深图像和所述第二景深图像之间的深度差异,获取深度差值图像,包括:
根据已知的N个参考位置确定所述第一景深图像和所述第二景深图像中的有效区域;所述N个参考位置用于确定景深图像中投影画面的边界,且N为大于或等于4的整数;
对所述第一景深图像和所述第二景深图像中的有效区域取差值,得到所述深度差值图像。
3.根据权利要求2所述的方法,其特征在于,从所述深度差值图像中,识别出像素点的深度值在预设第一深度值范围内的至少一个目标连通区域,包括:
将所述深度差值图像中深度值在所述第一深度值范围内的像素点的取值设置为1,并将所述深度差值图像中其余像素点的值设置为0,以得到二值化图像;
将所述二值化图像中像素点的取值为1的连通区域映射为所述深度差值图像中的连通区域;
根据所述深度差值图像包含的所述第一交互体的深度信息,从所述深度差值图像包含的连通区域中选择至少一个目标连通区域。
4.根据权利要求3所述的方法,其特征在于,所述根据所述深度差值图像包含的所述第一交互体的深度信息,从所述深度差值图像包含的连通区域中选择至少一个目标连通区域,包括:
根据所述深度差值图像包含的所述第一交互体的深度信息,确定所述第一交互体在所述深度差值图像中的候选区域;
从所述深度差值图像中的连通区域中,选择至少一个位于所述候选区域中的连通区域,作为所述至少一个目标连通区域。
5.根据权利要求2所述的方法,其特征在于,在根据已知的N个参考位置确定所述第一景深图像和所述第二景深图像中的有效区域之前,还包括:
采集第二交互体在未与第二投影画面交互时的第三景深图像以及所述第二交互体与所述第二投影画面中指定的N个参考位置分别进行交互时的N个参考景深图像;
根据所述第三景深图像与所述N个参考景深图像的深度差值,分别计算所述N个参考位置的位置信息。
6.根据权利要求5所述的方法,其特征在于,所述根据所述第三景深图像与所述N个参考景深图像的深度差值,分别计算所述N个参考位置的位置信息,包括:
根据所述第三景深图像和所述N个参考景深图像之间的深度差异,获取N个参考深度差值图像;
从所述N个参考深度差值图像中,分别识别出中像素点的深度值在预设的第三深度值范围内的参考目标连通区域,其中,所述参考目标连通区域分别与所述N个参考位置对应;
根据所述N个参考深度差值图像中的参考目标连通区域中深度值在预设的第四深度值范围内的像素点的位置坐标,分别确定所述N个参考位置的位置信息;所述第四深度值范围包含于所述第三深度值范围。
7.根据权利要求1-6任一项所述的方法,其特征在于,所述根据所述至少一个目标连通区域中深度值在预设的第二深度值范围内的像素点的位置坐标,分别确定所述至少一个触控点的位置,包括:
分别计算所述至少一个目标连通区域中深度值在所述第二深度值范围内的像素点的均值坐标,并将所述均值坐标作为所述至少一个触控点的位置。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于歌尔科技有限公司,未经歌尔科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811563670.9/1.html,转载请声明来源钻瓜专利网。