[发明专利]一种基于深度学习的水下目标视觉识别与姿态估计方法在审
申请号: | 202010970281.9 | 申请日: | 2020-09-15 |
公开(公告)号: | CN112183255A | 公开(公告)日: | 2021-01-05 |
发明(设计)人: | 李乐;张辰;井新康;赵海涛;张梅洁;刘卫东 | 申请(专利权)人: | 西北工业大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 西北工业大学专利中心 61204 | 代理人: | 金凤 |
地址: | 710072 *** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 学习 水下 目标 视觉 识别 姿态 估计 方法 | ||
本发明公开了一种基于深度学习的水下目标视觉识别与姿态估计方法。首先通过在基本YOLOV3算法的网络结构中增加两层预测网络,实现对目标不同维度特征的快速识别和高效提取;然后根据目标整体结构特征,选取中心点位于一条直线上的属于两个维度的多个特征标记,根据特征标记在目标图像中的坐标信息,通过最小二乘方法估计直线斜率估计,进而得到目标的姿态角度。该基于深度学习的水下目标视觉识别与姿态估计方法能够实现对常用水下作业工具的快速识别和姿态估计,为水下机器人机械臂抓取作业工具和实施水下作业提供基础。
技术领域
本发明属于目标识别领域,具体涉及一种水下目标识别和姿态估计方法。
背景技术
作业型水下机器人是进行海洋资源探查和开发的重要装备之一,其通常配备有水下机械臂。实现对水下目标的快速高效识别和姿态估计是水下机械臂进行作业的前提。视觉图像处理和特征提取为水下目标识别与姿态估计的一种常用方法。然而受限于复杂水下环境条件(如弱光、浑浊等),传统的水下目标视觉识别方法识别效率低,姿态估计效果不理想。随着深度学习理论的发展,深度卷积神经网络样本训练是实现水下合作目标识别的一条有效技术途径,但是对水下目标姿态估计的效果并不理想。因此,如何综合水下目标特征和深度学习方法优势进行常用水下作业工具快速识别与高效姿态估计是实现作业型水下机器人机械臂高效工作急需突破的关键技术之一。
发明内容
为了克服现有技术的不足,本发明提供了一种基于深度学习的水下目标视觉识别与姿态估计方法。首先通过在基本YOLOV3算法的网络结构中增加两层预测网络,实现对目标不同维度特征的快速识别和高效提取;然后根据目标整体结构特征,选取中心点位于一条直线上的属于两个维度的多个特征标记,根据特征标记在目标图像中的坐标信息,通过最小二乘方法估计直线斜率估计,进而得到目标的姿态角度。该基于深度学习的水下目标视觉识别与姿态估计方法能够实现对常用水下作业工具的快速识别和姿态估计,为水下机器人机械臂抓取作业工具和实施水下作业提供基础。
本发明解决其技术问题所采用的技术方案包括以下步骤:
步骤1:对水下作业工具包中的每件作业工具,手工在作业工具上选取N个特征标记,N≥3;其中一个特征标记为整体维度特征,由作业工具本身构成;其余N-1个特征标记都为局部维度特征,由作业工具的局部结构或组件构成;N个特征标记的中心点位于同一条直线;
步骤2:作业工具目标识别:
步骤2-1:对YOLOV3网络进行改进;保持YOLOV3网络前端特征提取网络不变,前端特征提取网络输出尺度为13*13、26*26、52*52、104*104和208*208的5个特征图;在YOLOV3网络后端预测网络最后面增加两层,分别是:增加的第一层为卷积神经网络,对前端特征提取网络输出的尺度为52*52的特征图进行上采样得到104*104的特征图,再与前端特征提取网络输出的尺度为104*104的特征图融合;增加的第二层为卷积神经网络,对前端特征提取网络输出的尺度为104*104的特征图进行上采样得到208*208的特征图,再与前端特征提取网络输出的尺度为208*208的特征图融合;从而生成改进YOLOV3网络;
步骤2-2:采集总数为A幅的水下作业工具图像作为训练集,采用k-means聚类算法对训练集进行处理得到多个尺度上的锚框,对步骤2-1得到的改进YOLOV3网络进行训练,训练迭代步数为B步;得到训练完成的改进YOLOV3网络;
步骤2-3:将水下作业工具图像输入步骤2-2训练完成的改进YOLOV3网络,通过训练完成的改进YOLOV3网络的前端特征提取网络提取作业工具图像特征,得到5个尺度的特征图,5个尺度分别为13*13、26*26、52*52、104*104和208*208;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西北工业大学,未经西北工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010970281.9/2.html,转载请声明来源钻瓜专利网。