[发明专利]位姿估计方法、装置、终端设备及存储介质在审
申请号: | 202210270950.0 | 申请日: | 2022-03-18 |
公开(公告)号: | CN114820779A | 公开(公告)日: | 2022-07-29 |
发明(设计)人: | 高翔;刘畅;刘嘉 | 申请(专利权)人: | 中国科学院深圳先进技术研究院 |
主分类号: | G06T7/73 | 分类号: | G06T7/73;G06N3/02;G06F17/16;G06V10/40;G06V10/774;G06V10/75;G06V10/82 |
代理公司: | 深圳中一联合知识产权代理有限公司 44414 | 代理人: | 任敏 |
地址: | 518000 广东省深圳*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 估计 方法 装置 终端设备 存储 介质 | ||
本申请实施例适用于位姿估计技术领域,提供了一种位姿估计方法、装置、终端设备及存储介质,该方法包括:获取目标图像,目标图像为通过对目标对象进行拍摄得到的;采用识别模型识别目标图像,得到目标对象在目标图像中的多个特征点;根据多个特征点与预设的目标对象的空间点,确定目标对象的位姿。采用上述方法可以提高对目标图像中目标对象位姿估计的准确度。
技术领域
本申请属于位姿估计技术领域,尤其涉及一种位姿估计方法、装置、终端设备及存储介质。
背景技术
现有技术中,在进行物体位姿进行估计时,均是利用深度学习来实现。其原理是:利用神经网络强大的特征提取能力来提取图像中物体的特征,再利用该特征对物体进行位姿估计。也即,通过对大量数据进行拟合训练,从而使整个神经网络可以在一实施例中较好地预测出图像中物体的位姿。
然而,上述神经网络在直接预测出物体位姿时,均是采集图像中物体的几何角点作为特征点参与后续处理。例如,物体线条中的交界处或顶点处。因此,现有直接采用神经网络预测物体位姿具有较强的局限性,若采集图像中物体的非几何角点作为特征点参与后续处理,则对非几何角点在图像中的定位不够准确,在使用定位不准的特征点进行后续处理时,预测出的位姿也相对不准。
发明内容
本申请实施例提供了一种位姿估计方法、装置、终端设备及存储介质,可以解决对图像中目标对象进行位姿预测时,准确度低的问题。
第一方面,本申请实施例提供了一种位姿估计方法,该方法包括:
获取目标图像,目标图像为通过对目标对象进行拍摄得到的;
采用识别模型识别目标图像,得到目标对象在目标图像中的多个特征点;
根据多个特征点与预设的目标对象的空间点,确定目标对象的位姿。
第二方面,本申请实施例提供了一种位姿估计装置,该装置包括:
获取模块,用于获取目标图像,目标图像为通过对目标对象进行拍摄得到的;
识别模块,用于采用识别模型识别目标图像,得到目标对象在目标图像中的多个特征点;
确定模块,用于根据多个特征点与预设的目标对象的空间点,确定目标对象的位姿。
第三方面,本申请实施例提供了一种终端设备,包括存储器、处理器以及存储在存储器中并可在处理器上运行的计算机程序,处理器执行计算机程序时实现如上述第一方面的方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序被处理器执行时实现如上述第一方面的方法。
第五方面,本申请实施例提供了一种计算机程序产品,当计算机程序产品在终端设备上运行时,使得终端设备执行上述第一方面的方法。
本申请实施例与现有技术相比存在的有益效果是:直接采用识别模型识别目标图像,得到目标对象在目标图像中的多个特征点。而后,将特征点分别与预设的目标对象的空间点进行匹配,计算目标对象的位姿。此时,识别模型仅输出目标对象在目标图像中的特征点,而不直接输出目标图像中目标对象的位姿。因此,识别模型在对目标对象的非几何角点进行识别定位时,也可提高对目标对象的特征点进行识别的准确率。以此在确定目标对象的位姿时,不仅无需识别模型仅局限于对物体的几何角点进行识别。另外,还可基于识别准确率较高的特征点,提高对目标对象的位姿的估计准确度。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院深圳先进技术研究院,未经中国科学院深圳先进技术研究院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210270950.0/2.html,转载请声明来源钻瓜专利网。