[发明专利]一种基于深度语义分割网络的视觉目标识别方法和装置在审
申请号: | 201910818625.1 | 申请日: | 2019-08-30 |
公开(公告)号: | CN110598771A | 公开(公告)日: | 2019-12-20 |
发明(设计)人: | 李春宾 | 申请(专利权)人: | 北京影谱科技股份有限公司 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06K9/34;G06K9/46;G06N3/04;G06N3/08 |
代理公司: | 11694 北京万思博知识产权代理有限公司 | 代理人: | 高镇 |
地址: | 100000 北京市*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本申请公开了一种基于深度语义分割网络的视觉目标识别方法和装置,该方法在深度卷积网络CNN上构建带迂回卷积的深度残差网络ResNet,通过深度残差网络卷积特征图,消除深度卷积网络CNN中池化层,用于减少所述特征图对应特征参数的数量并增加特征映射的视场,分割所述特征图并输出;基于场景标记的结果从输入场景中提取对象点,通过ICP算法将所述对象点与存储在3D点模型数据集中的点模型进行对齐来估计对象的3D姿态,确定最佳的3D对象姿势。本申请优化了基于CNN的深度语义分割方法,可同时检测和识别多个对象,提高识别准确率。 | ||
搜索关键词: | 卷积 特征图 语义分割 网络 对象点 残差 方法和装置 场景标记 模型数据 视觉目标 特征参数 对齐 映射 准确率 池化 构建 视场 迂回 申请 姿势 存储 场景 输出 分割 检测 优化 | ||
【主权项】:
1.一种基于深度语义分割网络的视觉目标识别方法,包括:/n从数据集中获取作为对象的特征图;/n在深度卷积网络CNN上构建带迂回卷积的深度残差网络ResNet,通过深度残差网络卷积特征图,消除深度卷积网络CNN中池化层,用于减少所述特征图对应特征参数的数量并增加特征映射的视场,分割所述特征图并输出;/n基于场景标记的结果从输入场景中提取对象点,通过ICP算法将所述对象点与存储在3D点模型数据集中的点模型进行对齐来估计对象的3D姿态,确定最佳的3D对象姿势。/n
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京影谱科技股份有限公司,未经北京影谱科技股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910818625.1/,转载请声明来源钻瓜专利网。