[发明专利]一种基于深度语义分割网络的视觉目标识别方法和装置在审
申请号: | 201910818625.1 | 申请日: | 2019-08-30 |
公开(公告)号: | CN110598771A | 公开(公告)日: | 2019-12-20 |
发明(设计)人: | 李春宾 | 申请(专利权)人: | 北京影谱科技股份有限公司 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06K9/34;G06K9/46;G06N3/04;G06N3/08 |
代理公司: | 11694 北京万思博知识产权代理有限公司 | 代理人: | 高镇 |
地址: | 100000 北京市*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 卷积 特征图 语义分割 网络 对象点 残差 方法和装置 场景标记 模型数据 视觉目标 特征参数 对齐 映射 准确率 池化 构建 视场 迂回 申请 姿势 存储 场景 输出 分割 检测 优化 | ||
1.一种基于深度语义分割网络的视觉目标识别方法,包括:
从数据集中获取作为对象的特征图;
在深度卷积网络CNN上构建带迂回卷积的深度残差网络ResNet,通过深度残差网络卷积特征图,消除深度卷积网络CNN中池化层,用于减少所述特征图对应特征参数的数量并增加特征映射的视场,分割所述特征图并输出;
基于场景标记的结果从输入场景中提取对象点,通过ICP算法将所述对象点与存储在3D点模型数据集中的点模型进行对齐来估计对象的3D姿态,确定最佳的3D对象姿势。
2.根据权利要求1所述的基于深度语义分割网络的视觉目标识别方法,其特征在于,在对所述特征图进行分割时,采用的是通过深度残差网络ResNet进行空洞卷积,实用带孔的卷积内核来卷积所述特征图,实现基于CNN的语义分割。
3.根据权利要求1或2所述的基于深度语义分割网络的视觉目标识别方法,其特征在于,对于深度卷积网络CNN的输出,采用与其完全连接的条件随机场CRF层对CNN输出进行细化,提供精确的对象分割结果并输出。
4.根据权利要求1所述的基于深度语义分割网络的视觉目标识别方法,其特征在于,在确定最佳的3D对象姿势的过程中,包括:
先使用快速点特征直方图算法FPFH和随机抽样一致性算法RANSAC估计所述对象的初始姿势,所述通过使用多维直方图推广点周围的平均曲率来编码特征点的k邻域几何属性,然后再通过ICP算法将所述对象点与存储在3D点模型数据集中的点模型进行对齐来估计对象的3D姿态,进而确定最佳的3D对象姿势。
5.一种基于深度语义分割网络的视觉目标识别装置,包括:
对象获取模块,其配置成从数据集中获取作为对象的特征图;
对象分割模块,其配置成在深度卷积网络CNN上构建带迂回卷积的深度残差网络ResNet,通过深度残差网络卷积特征图,消除深度卷积网络CNN中池化层,用于减少所述特征图对应特征参数的数量并增加特征映射的视场,分割所述特征图并输出;
特征提取模块,其配置成基于场景标记的结果从输入场景中提取对象点,通过ICP算法将所述对象点与存储在3D点模型数据集中的点模型进行对齐来估计对象的3D姿态,确定最佳的3D对象姿势。
6.根据权利要求5所述的基于深度语义分割网络的视觉目标识别装置,其特征在于,在所述对象获取模块中,其具体配置成通过深度残差网络ResNet进行空洞卷积,实用带孔的卷积内核来卷积所述特征图,实现基于CNN的语义分割。
7.根据权利要求5或6所述的基于深度语义分割网络的视觉目标识别装置,其特征在于,在对象分割模块中,其还配置成对于深度卷积网络CNN的输出,采用与其完全连接的条件随机场CRF层对CNN输出进行细化,提供精确的对象分割结果并输出。
8.根据权利要求5所述的基于深度语义分割网络的视觉目标识别装置,其特征在于,在所述特征提取模块中,具体配置成:
先使用快速点特征直方图算法FPFH和随机抽样一致性算法RANSAC估计所述对象的初始姿势,所述通过使用多维直方图推广点周围的平均曲率来编码特征点的k邻域几何属性,然后再通过ICP算法将所述对象点与存储在3D点模型数据集中的点模型进行对齐来估计对象的3D姿态,进而确定最佳的3D对象姿势。
9.一种计算设备,包括存储器、处理器和存储在所述存储器内并能由所述处理器运行的计算机程序,其中,所述处理器执行所述计算机程序时实现如权利要求1-4中任一项所述的方法。
10.一种计算机可读存储介质,优选为非易失性可读存储介质,其内存储有计算机程序,所述计算机程序在由处理器执行时实现如权利要求1-4中任一项所述的方法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京影谱科技股份有限公司,未经北京影谱科技股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910818625.1/1.html,转载请声明来源钻瓜专利网。