[发明专利]一种基于深度学习的无人艇感知融合算法有效
申请号: | 201910653226.4 | 申请日: | 2019-07-19 |
公开(公告)号: | CN110414396B | 公开(公告)日: | 2021-07-16 |
发明(设计)人: | 尹洋;桂凡;王征;陈帅;李洪科;王黎明;卜乐平;刘小虎;王家林 | 申请(专利权)人: | 中国人民解放军海军工程大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 武汉楚天专利事务所 42113 | 代理人: | 孔敏 |
地址: | 430033 湖北*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明提供一种基于深度学习的无人艇感知融合算法,包括:步骤一、对摄像头采集的单帧图像进行目标检测,得到机器视觉数据;步骤二、将激光雷达输入的数据进行滤波、聚类,将离散的点聚类为目标信息,得到雷达数据;步骤三、将雷达数据和机器视觉数据进行数据关联:步骤一和步骤二分别处理完摄像头和雷达的数据后,将两者的观测目标进行匹配,建立雷达数据和机器视觉数据的数据关联模型,得到雷达和视觉测量目标的关联矩阵,通过雷达和视觉测量目标的关联矩阵筛选出关联程度较大的目标,进而实现对目标的感知。本发明能够融合雷达和视觉两个传感器的优点,给出目标足够的信息用于无人艇环境感知,并具有一定的鲁棒性,能够适应一定的干扰。 | ||
搜索关键词: | 一种 基于 深度 学习 无人 感知 融合 算法 | ||
【主权项】:
1.一种基于深度学习的无人艇感知融合算法,其特征在于:包括如下步骤:步骤一、对摄像头采集的单帧图像进行目标检测:利用卷积神经网络SSD框架对目标进行检测,获取目标的类别、数量、方位信息,得到机器视觉数据;步骤二、激光雷达信号处理:将激光雷达输入的数据进行滤波、聚类,将离散的点聚类为目标信息,得到雷达数据;步骤三、将雷达数据和机器视觉数据进行数据关联:步骤一和步骤二分别处理完摄像头和雷达的数据后,将两者的观测目标进行匹配,建立雷达数据和机器视觉数据的数据关联模型,得到雷达和视觉测量目标的关联矩阵,通过雷达和视觉测量目标的关联矩阵筛选出关联程度较大的目标,进而实现对目标的感知。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国人民解放军海军工程大学,未经中国人民解放军海军工程大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910653226.4/,转载请声明来源钻瓜专利网。
- 上一篇:内容识别方法、装置、服务器及存储介质
- 下一篇:卸妆方案推荐方法及装置