[发明专利]一种基于改进的YOLO6D算法的位姿估计系统及方法在审
申请号: | 202110703620.1 | 申请日: | 2021-06-24 |
公开(公告)号: | CN113436251A | 公开(公告)日: | 2021-09-24 |
发明(设计)人: | 张楚宁;高天寒;江欣蓓 | 申请(专利权)人: | 东北大学 |
主分类号: | G06T7/70 | 分类号: | G06T7/70;G06T5/00;G06N3/04;G06N3/08 |
代理公司: | 沈阳东大知识产权代理有限公司 21109 | 代理人: | 梁焱 |
地址: | 110819 辽宁*** | 国省代码: | 辽宁;21 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 改进 yolo6d 算法 估计 系统 方法 | ||
本发明提供了一种基于改进的YOLO6D算法的位姿估计系统及方法,涉及计算机视觉技术领域。该系统包括视觉传感器、客户端和服务器端。使用该系统的基于改进的YOLO6D算法的位姿估计方法包括如下步骤:采集包含目标物体的原始图像;对包含目标物体的原始图像进行处理得到边缘清晰的目标物体图像;构建YOLO6D模型的训练数据集;对YOLO6D模型进行改进,包括:为对称目标物体和非对称目标物体定义两种不同的损失函数;利用所述训练数据集对改进的YOLO6D模型进行训练,获得位姿估计模型;利用所述姿态估计模型实时估计图像中目标物体的位姿。该系统及方法可提高对称物体的位姿估计准确率、可防止过拟合、降低了对外部设备的性能要求。
技术领域
本发明涉及计算机视觉技术领域,特别是涉及一种基于改进的YOLO6D算法的位姿估计系统及方法。
背景技术
位姿估计是指利用视觉传感器获取的信息,从中估计目标物体与传感器之间的距离与姿态。它不仅需要对图像中的目标物体进行定位,还需要检测目标物体在三维空间中的旋转自由度。该技术目前主要的应用领域是增强现实领域,随着计算机视觉与地图构建(SLAM)技术的日益发展,基于视觉的位姿估计方法在增强现实系统开发中的应用越来越广泛。
目前,位姿估计方法主要分为基于关键点与模版匹配的方法和基于深度学习的方法。基于关键点与模版匹配的方法对光线较为敏感,且无法处理物体间有遮挡的问题,对检测环境要求较为苛刻。
为克服这些位姿估计中存在的问题,应用上主流的是采用基于深度学习的位姿估计方法。基于深度学习的位姿估计一般分为单阶段检测算法和双阶段检测算法两类。双阶段检测虽然检测准确度较高,但受限于检测步骤的多阶段,速度较慢。在增强现实领域对实时性要求较高,因此单阶段检测算法更适用于此领域。单阶段检测算法也被称为基于回归分析的检测算法,其将检测问题视为对目标位置和类别信息的回归分析问题,通过一个神经网络模型可直接输出检测结果。随着单阶段检测算法的发展,目前的单阶段的目标检测算法在保持速度优势的同时,检测精度也达到了双阶段目标检测的水平。
YOLO6D属于一种基于深度学习的单阶段检测算法,因其具有强大的特征抽象与表达能力,在各种计算机视觉识别任务上表现出色。但在实际应用中,YOLO6D检测算法也遇到了很多挑战,比如模型训练所需的数据量不够、数据集标注不完整,识别场景中有复杂背景干扰,因损失函数在取得同一个值时存在多个不同的旋转四元数,在网络训练时带来震荡而使对称目标物体不好识别等问题。
发明内容
针对现有技术存在的问题,本发明提供一种基于改进的YOLO6D算法的位姿估计系统及方法。
本发明的技术方案为:
一种基于改进的YOLO6D算法的位姿估计系统,所述系统包括:
视觉传感器,用于实时采集目标物体的图像,并将图像发送给客户端;
客户端,用于实时捕获图像并发送给服务器端,以及接收服务器端发送的目标物体位姿估计结果;
服务器端,用于构建YOLO6D模型的训练数据集;对YOLO6D模型进行改进;利用所述训练数据集对改进的YOLO6D模型进行训练,获得位姿估计模型;利用所述姿态估计模型实时估计图像中目标物体的位姿,并将目标物体位姿估计结果发送给客户端。
进一步地,根据所述的基于改进的YOLO6D算法的位姿估计系统,所述视觉传感器是单目摄像机。
使用所述的基于改进的YOLO6D算法的位姿估计系统的基于改进的YOLO6D算法的位姿估计方法,包括以下步骤:
采集包含目标物体的原始图像;
对包含目标物体的原始图像进行处理得到边缘清晰的目标物体图像;
构建YOLO6D模型的训练数据集;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于东北大学,未经东北大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110703620.1/2.html,转载请声明来源钻瓜专利网。