[发明专利]一种能应对复杂背景并且更精确的三维姿态估计算法在审
申请号: | 202211077522.2 | 申请日: | 2022-09-05 |
公开(公告)号: | CN115482448A | 公开(公告)日: | 2022-12-16 |
发明(设计)人: | 杜宇;刘冬;张犇;李金钟;田小静;丛明 | 申请(专利权)人: | 大连交通大学;大连理工大学 |
主分类号: | G06V10/82 | 分类号: | G06V10/82;G06V10/774;G06V20/64 |
代理公司: | 辽宁鸿文知识产权代理有限公司 21102 | 代理人: | 许明章;王海波 |
地址: | 116028 辽宁*** | 国省代码: | 辽宁;21 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 应对 复杂 背景 并且 精确 三维 姿态 估计 算法 | ||
本发明属于机器视觉领域,涉及一种物体检测与姿态估计方法。本方法基于YOLO‑6D算法进行调整,将原算法中的YOLO V2检测网络变更为YOLO V3网络,同时增添注意力机制以增强模型对背景复杂且存在遮挡的物体的检测能力。并且调整了位姿估计方法,选择cell群进行基于RANSAC的EPnP姿态估计来提高估计精度。该算法很好地克服了传统姿态估计算法抗背景干扰能力弱、被遮挡目标识别精度差的问题,并且该算法运行速度较快,具备实时处理能力,综合性能超越其他基于CNN的算法。
技术领域
本发明属于机器视觉领域,涉及一种物体检测与姿态估计方法。
背景技术
在自动驾驶及机器人操作领域需要对目标进行判断与定位,并对目标在三维空间的旋转角度进行判断。传统的二维图像识别无法获取对应信息,6D姿态估计可以较好的解决此类问题。这些场景对姿态识别的速度和精度提出了相当高的要求,与此同时,在实际应用中存在着多种干扰条件,例如光照强度低、目标物体背景复杂、目标被遮挡等,这些都给姿态识别带来了难度。
基于点对特征的姿态估计方法在处理轻微形变及遮挡具有高鲁棒性、抗干扰能力强的特点,但在面对缺乏纹理的姿态估计场景,其无法很好的对目标姿态进行提取,具有很高的参数空间维度、空间复杂度及时间复杂度。基于点云的方法可以保留原始几何信息并且不需要进行离散化处理,但会浪费大量的计算资源。
对于6D姿态估计,现有的方法需要耗费较长的检测时间以及较多的计算资源。
发明内容
针对现有技术存在的问题,本发明提出了一种物体检测与姿态估计方法。本方法将原YOLO-6D算法中的YOLOV2检测网络变更为YOLOV3网络,同时增添注意力机制以增强模型对背景复杂且存在遮挡的物体的检测能力。并且调整了位姿估计方法,选择cell群进行基于RANSAC的EPnP姿态估计来提高估计精度。
为了达到上述目的,本发明采用的技术方案为:
一种物体检测与姿态估计方法,能够应对复杂背景且更精确,包括以下步骤:
(1)采集包含检测目标的若干张图像;
(2)依据LineMod数据集格式制作训练用数据集;
(3)对YOLO-6D算法进行改进,提升其检测网络的性能;改进具体包括以下两部分:
将原YOLO-6D算法中的YOLOV2检测网络变更为YOLOV3网络,并融入注意力模块作为检测网络。网络的输入为单张RGB图像,将图像均匀划分为S×S个规则的cell,经检测网络后每个cell可输出一个多维向量,存放着8个3D包络框角点及物体中线点坐标信息,目标物体的分类概率及整体置信度。网络的组成如图1所示,其包含三个预测特征层Box1、Box2和Box3,并在特征层Box1中融入注意力机制,使其可以在空间上融合更多的特征。本申请选用SENet网络作为融入的注意力机制,SENet网络通过学习特征权重获取每个特征图的重要程度,加大有效特征图权重并降低无效特征图权重,使模型变得更优。经过SENet网络后的图像会分成两支,其中一支经卷积到13×13的第一个预测特征层,使用1×1的卷积核预测器进行预测,另外一支会通往另一个卷积层,再经上采样,高和宽会变成原来的两倍即26×26,并与网络中Box2内的残差网络输出进行融合。与此同时,拼接之后的矩阵也经特征提取器处理,分为两个分支,其中一支通向第二个预测特征层,另一支通往1×1卷积层,进行上采样,高宽均变为52,再与Box3内残差网络的输出融合。融合的结果通过特征提取器,再经卷积得到第三个预测特征层。此操作目的是对目标物体的局部特征进行提取,因为其具有三个不同尺度的预测特征层,可以有效加强对被遮挡物体的预测能力。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于大连交通大学;大连理工大学,未经大连交通大学;大连理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211077522.2/2.html,转载请声明来源钻瓜专利网。