[发明专利]基于辅助标识的深度学习目标识别及定位方法有效
申请号: | 201810533423.8 | 申请日: | 2018-05-29 |
公开(公告)号: | CN108876849B | 公开(公告)日: | 2021-11-23 |
发明(设计)人: | 张智;聂文昌;任祥华 | 申请(专利权)人: | 哈尔滨工程大学 |
主分类号: | G06T7/70 | 分类号: | G06T7/70;G06T7/80;G06K9/62;G06N3/04 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 150001 黑龙江省哈尔滨市南岗区*** | 国省代码: | 黑龙江;23 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 辅助 标识 深度 学习 目标 识别 定位 方法 | ||
本发明涉及一种基于辅助标识的深度学习目标识别及定位方法,包括:步骤1、设计图案的优选策略,优选出可分类性强的图案;步骤2、确定大型物体的位置姿态;步骤3、利用优选图案识别小目标;步骤4、通过组合图案类别,拓展可识别类别数量。本发明考虑到深度学习方法用于目标检测时无法准确得到目标位置,将深度学习和双目视觉相结合,利用深度学习优秀的识别能力和鲁棒性,以及双目视觉定位准确的特点,最终实现优于传统方法的目标准确识别与定位。此外在环境中引入图案不同于传统人工标识方法,不会影响环境的美观性。
技术领域
本发明涉及一种目标识别及定位方法,特别是一种基于辅助标识的深度学习目标识别及定位方法,属于目标视觉定位技术领域。
背景技术
为提高视觉系统在自然环境中的目标识别与定位水平,一种方法是提取环境中自然存在的特征,但该方法过于依赖目标本身及环境的特点,无法在各种场合通用,另一种是在环境中引入人工标识,通过对人工标识的检测来辅助定位或识别目标。人工标识运用得当能够显著提高系统实用水平,但以往人工标识法基于传统视觉方法检测标识,抗干扰能力有限,往往需要将标识设计得足够醒目(如黑白圆环、角点等)来保证成功率,但过于显眼的标识影响环境美观,难以推广,并且能够设计出的标识类别有限,难以用于多种目标分类的问题。在不破坏环境和谐的前提下融入人工标识,如将装饰图案或艺术图形选作标识,将大大提高系统实用性,而深度学习可以具有很强的识别能力和鲁棒性,只要样本集覆盖标识处于不同背景环境的状态、不同角度、不同距离、以及部分遮挡等各类情况,训练好的网络将能以很高的成功率检测标识。
目标识别方法Faster RCNN是Kaming He与RCNN作者共同完成的一项工作,应用深度学习框架CAFFE。自2016年被提出以后成为了目标识别领域的基础,众多的算法都是在Faster RCNN的基础上进行的改进,同时介绍结果时也是以Faster RCNN的结果为标准。Faster RCNN实现了RCNN系列算法中目标检测的端到端检测的过程。FasterRcnn网络的流程为:首先提取图像特征,该任务由分类网络中的卷积部分来完成,第二部分为区域生成网络,其目的是利用卷积得到的特征,生成建议框,并进行删选。第三部分利用生成的建议框对图像特征进行裁剪,得到预测的目标特征区域,然后进行ROI池化,得到维数和大小一样特征向量,最后分别送入到全连接网络进行分类和得到最终的标框。但深度学习方法用于目标检测时无法准确得到目标位置。
双目立体视觉是基于视差原理,由多幅图像获取物体三维几何信息的方法。在机器视觉系统中,双目视觉一般由双摄像机从不同角度同时获取周围景物的两幅数字图像,或有由单摄像机在不同时刻从不同角度获取周围景物的两幅数字图像,并基于视差原理即可恢复出物体三维几何信息,重建周围景物的三维形状与位置。
发明内容
针对上述现有技术,本发明要解决的技术问题是提供一种将深度学习和双目视觉相结合、利用深度学习优秀的识别能力和鲁棒性以及双目视觉定位准确的特点的基于辅助标识的深度学习目标识别及定位方法。
为解决上述技术问题,本发明提出一种基于辅助标识的深度学习目标识别及定位方法,包括以下步骤:
步骤1:设计图案的优选策略,选出可分类性强的图案,利用卷积神经网络,在图案中优选出有限图案子集,具体过程为:
将多种不同的图案送入卷积神经网络训练,假定分类N类,网络的最终输出层有N个节点、分别代表该图案属于每一类的概率,此概率是由网络倒数第二层全连接层经过softmax回归得到的,Softmax函数为:
式(1)中x表示网络的输出属于每一个类别的概率,hi(x)表示经过回归后第i个样本属于每一类的概率;
改变网络的输出位置,采用回归前的向量输出做为评价函数入口,设计评价函数,具体为:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨工程大学,未经哈尔滨工程大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810533423.8/2.html,转载请声明来源钻瓜专利网。
- 上一篇:追踪系统及其追踪方法
- 下一篇:一种PCB板打孔定位方法