[发明专利]用于现实场景中的目标识别与跟踪的方法和系统在审
申请号: | 201910917491.9 | 申请日: | 2019-09-26 |
公开(公告)号: | CN112561953A | 公开(公告)日: | 2021-03-26 |
发明(设计)人: | 李江亮;方俊 | 申请(专利权)人: | 北京外号信息技术有限公司 |
主分类号: | G06T7/246 | 分类号: | G06T7/246;G06T7/292 |
代理公司: | 北京泛华伟业知识产权代理有限公司 11280 | 代理人: | 王勇 |
地址: | 100176 北京市大兴区亦庄经济技*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 用于 现实 场景 中的 目标 识别 跟踪 方法 系统 | ||
一种用于现实场景中的目标识别和跟踪的方法和系统,其中,所述现实场景中安装有摄像头和光通信装置,所述摄像头和所述光通信装置之间的具有相对位姿,所述方法包括:通过摄像头跟踪所述现实场景中的一个或多个目标;根据所述摄像头的跟踪结果获得所述一个或多个目标的位置信息;服务器获得来自第一设备的信息,根据来自所述第一设备的信息能够确定所述第一设备的属性信息和所述第一设备的位置信息;所述服务器将所述第一设备的位置信息与所述一个或多个目标的位置信息进行比较,确定与所述第一设备匹配的目标;根据所述第一设备的属性信息设置与所述第一设备匹配的目标的相关信息。
技术领域
本发明属于增强现实技术领域,尤其涉及一种用于现实场景中的目标识别与跟踪的方法和系统。
背景技术
本部分的陈述仅仅是为了提供与本发明相关的背景信息,以帮助理解本发明,这些背景信息并不一定构成现有技术。
目前,常用的目标识别和跟踪手段包括雷达和计算机视觉。其中,雷达识别是利用回波中的幅度、相位、频谱和极化等目标特征信息,通过数学上的各种多维空间变换来估算目标的大小、形状等物理参数,进而对目标进行分类和识别。而计算机视觉则是通过深度学习等人工智能技术,使用大量数据对计算机进行训练,从而建立高精度的目标检测与识别系统。
增强现实技术(Augmented Reality,AR)也被称为混合现实技术,其通过计算机技术将虚拟对象叠加到现实场景中,使得现实场景和虚拟对象能够实时地呈现到同一个画面或空间中,从而增强用户对现实世界的感知。由于增强现实技术能够对真实环境进行增强显示输出,因此可以用于对现实场景中的目标进行标定。
然而,使用雷达进行目标识别和跟踪的成本较高,通过机器学习进行目标检测与识别需要进行大量训练,时间复杂度高,均不不适用于日常的目标识别与检测。此外,增强现实中,所叠加的虚拟对象无法随着现实场景中的真实目标的移动而移动。
因此,为了解决上述问题,亟需一种快速、精确、低成本的目标识别与跟踪方法和系统。
发明内容
本发明的方案提供了一种用于现实场景中的目标识别与跟踪的方法和系统,通过摄像头获得一个或多个目标的位置信息,将一个或多个目标的位置信息与扫描光通信装置的设备的位置信息相比较,确定与设备相匹配的目标,并依据设备的属性信息设置该目标的相关信息,实现目标识别。进一步,可以基于目标的相关信息设置与目标相关联的标识信息,并将标识信息呈现在由摄像头采集的图像中的目标附近;也可以基于目标的位置和相关信息设置与目标相关联的虚拟对象,该虚拟对象能够在显示媒介上精确地呈现,并且所呈现的虚拟对象能够跟随现实场景中的目标,实现目标跟踪。
本发明的一个方面涉及一种用于现实场景中的目标识别与跟踪的方法,其中,所述现实场景中安装有摄像头和光通信装置,所述摄像头和所述光通信装置之间具有相对位姿,所述方法包括:通过摄像头跟踪所述现实场景中的一个或多个目标;根据所述摄像头的跟踪结果获得所述一个或多个目标的位置信息;服务器获得来自第一设备的信息,并根据来自所述第一设备的信息确定所述第一设备的属性信息和所述第一设备的位置信息,其中,所述第一设备的位置信息是至少部分地基于所述第一设备相对于所述光通信装置的位置信息而获得的;所述服务器将所述第一设备的位置信息与所述一个或多个目标的位置信息进行比较,确定与所述第一设备匹配的目标;根据所述第一设备的属性信息设置与所述第一设备匹配的目标的相关信息。
可选的,所述根据所述摄像头的跟踪结果获得所述一个或多个目标的位置信息包括:根据所述摄像头的跟踪结果获得所述一个或多个目标相对于所述摄像头的位置信息,以及根据所述一个或多个目标相对于所述摄像头的位置信息以及所述摄像头和所述光通信装置之间的相对位姿信息来确定所述一个或多个目标相对于所述光通信装置的位置信息。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京外号信息技术有限公司,未经北京外号信息技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910917491.9/2.html,转载请声明来源钻瓜专利网。