[发明专利]基于深度相机的场景识别方法有效
申请号: | 201910269824.1 | 申请日: | 2019-04-04 |
公开(公告)号: | CN110059597B | 公开(公告)日: | 2022-09-06 |
发明(设计)人: | 张希武;苏岩;朱欣华 | 申请(专利权)人: | 南京理工大学 |
主分类号: | G06V20/40 | 分类号: | G06V20/40;G06V10/80;G06N3/04;G06N3/08 |
代理公司: | 南京理工大学专利中心 32203 | 代理人: | 马鲁晋 |
地址: | 210094 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种基于深度相机的场景识别方法,基于深度相机捕获的彩色图像和深度图像,并利用深度神经网络表征图像特征实现场景识别。在特征提取阶段,将经过预处理的深度图像和彩色图像输入给一个双路卷积神经网络,分别提取两种图像的特征;将得到的两种图像的特征向量输入给特征融合神经网络,得到两种特征的权重系数;根据得到的特征向量和权重系数,量化并计算不同场景之间的相似程度,从而实现场景识别。本发明有效利用了深度图像信息,不仅提高了场景识别精度,而且能在彩色图像信息失效或不完整的情况下,保证场景识别精度。 | ||
搜索关键词: | 基于 深度 相机 场景 识别 方法 | ||
【主权项】:
1.一种基于深度相机的场景识别方法,其特征在于,具体步骤如下:步骤1、对深度图像进行预处理;步骤2、将彩色图像和经过预处理的深度图像输入双路神经网络得到卷积层的输出,根据卷积层输出分别构建彩色图像和深度图像的特征向量,其中,所述双路神经网络由两个全卷积神经网络构成,所述全卷积神经网络为去除了最后的全连接层的卷积神经网络;步骤3、将彩色图像特征和深度图像特征输入到训练好的特征融合神经网络进行融合,获得权重系数;步骤4、根据步骤2中得到的特征向量和步骤3中的权重系数,计算待识别场景和数据库中的场景之间的相似度;步骤5、将待识别场景和数据库中的场景之间的相似度与预先设定的阈值τ进行比较,如果相似度大于阈值τ,则判定二者为同一个场景。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京理工大学,未经南京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910269824.1/,转载请声明来源钻瓜专利网。