[发明专利]语义分解式物体位姿估计方法及系统有效
申请号: | 202110113620.6 | 申请日: | 2021-01-27 |
公开(公告)号: | CN112837367B | 公开(公告)日: | 2022-11-25 |
发明(设计)人: | 季向阳;李志刚 | 申请(专利权)人: | 清华大学 |
主分类号: | G06T7/73 | 分类号: | G06T7/73;G06V10/44;G06V10/82;G06N3/04;G06N3/08 |
代理公司: | 北京清亦华知识产权代理事务所(普通合伙) 11201 | 代理人: | 李岩 |
地址: | 10008*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 语义 分解 物体 估计 方法 系统 | ||
本发明公开了一种语义分解式物体位姿估计方法及系统,所述方法包括以下步骤:S1,在二维图像中检测和提取目标物体;S2,对目标物体进行多层次的语义分解;S3,通过网络模块对语义分解后的目标物体进行训练,得到位姿结果。根据本发明的语义分解式物体位姿估计方法,首先通过对目标物体进行多层次的语义分解,然后再对物体位姿进行估计,从而达到更好的位姿估计效果。
技术领域
本发明涉及物体位姿估计技术领域,尤其是涉及一种语义分解式物体位姿估计方法及系统。
背景技术
目前,在物体位姿估计领域,对于利用RGB图片来估计物体的位姿这一问题,通常直接在RGB图像上训练模型,来提取RGB图像中的物体的特征,并根据提取的特征来识别物体的位姿。
现有方法直接利用原始的RGB图像来估计物体的位姿,然而RGB图片容易受到噪声、模糊、遮挡、光照变化等外界环境因素的影响,这对位姿估计模型的效果造成很大影响。另外,当没有真实的训练数据,只依赖于人工合成图像对模型进行训练时,人工合成图像和真实图像在RGB的表示方式上存在较大差异,这使得在人工合成图像上训练的模型往往在真实场景使用时效果很差。因此,上述技术存在改进空间。
发明内容
本发明旨在至少解决现有技术中存在的技术问题之一。为此,本发明的一个目的在于提出一种语义分解式物体位姿估计方法,所述语义分解式物体位姿估计方法,首先通过对目标物体进行多层次的语义分解,然后再对物体位姿进行估计,从而达到更好的位姿估计效果。
本发明还提出了一种采用了上述语义分解式物体位姿估计方法的系统。
根据本发明实施例的语义分解式物体位姿估计方法,包括以下步骤:
S1,在二维图像中检测和提取目标物体;
S2,对目标物体进行多层次的语义分解;
S3,通过网络模块对语义分解后的目标物体进行训练,得到位姿结果。
根据本发明的语义分解式物体位姿估计方法,首先通过对目标物体进行多层次的语义分解,然后再对物体位姿进行估计,从而达到更好的位姿估计效果。
根据本发明一个实施例的语义分解式物体位姿估计方法,在步骤S1中,检测和提取目标物体包括:检测目标物体的中心点的像素坐标(cx,cy)和目标物体在二维图像中的尺寸(h,w)。
根据本发明一个实施例的语义分解式物体位姿估计方法,在步骤S3中,网络模块包括:跨语义表示的物体坐标预测网络模块、上下文感知特征融合网络模块和物体坐标集成网络模块。
根据本发明一个实施例的语义分解式物体位姿估计方法,跨语义表示的物体坐标预测网络模块包括:特征网络模块和坐标预测网络模块,特征网络模块用于对多层次的语义分解表示图进行特征参数提取,坐标预测网络模块根据特征参数对目标物体的三维坐标进行预测,得到第一预测值。
根据本发明一个实施例的语义分解式物体位姿估计方法,将特征参数输入至上下文感知特征融合网络模块,得到融合参数;将融合参数输入至坐标预测网络模块,坐标预测网络模块根据融合参数对目标物体的三维坐标进行预测,得到第二预测值。
根据本发明一个实施例的语义分解式物体位姿估计方法,将第一预测值和第二预测值输入至物体坐标集成网络模块,物体坐标集成网络模块根据第一预测值和第二预测值对目标物体的三维坐标进行预测,得到第三预测值。
根据本发明一个实施例的语义分解式物体位姿估计方法,根据第三预测值,建立目标物体的二维图像到三维坐标之间的对应关系,利用随机抽样一致性算法对目标物体的六自由度位姿进行求解,得到位姿结果。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学,未经清华大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110113620.6/2.html,转载请声明来源钻瓜专利网。
- 上一篇:一种可快速无线充电的装置及其系统
- 下一篇:一种包络追踪电源的控制方法及电路