[发明专利]一种基于立体视觉的目标检测方法及系统有效
申请号: | 201911127836.7 | 申请日: | 2019-11-18 |
公开(公告)号: | CN110956616B | 公开(公告)日: | 2023-09-26 |
发明(设计)人: | 李俊;张星月 | 申请(专利权)人: | 南京和光智能制造研究院有限公司;江苏孔德惟道智能科技有限公司 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06T7/50 |
代理公司: | 南京纵横知识产权代理有限公司 32224 | 代理人: | 董建林 |
地址: | 210023 江苏省南京市栖霞区*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 立体 视觉 目标 检测 方法 系统 | ||
本发明公开了一种基于立体视觉的目标检测方法,对立体视觉的一侧视图使用深度学习算法进行目标检测,获取该侧视图的目标区域和类别;采用基于立体视觉的视差图处理算法获取候选目标区域,对候选目标区域使用深度学习分类模型进行分类,得到立体视觉目标区域和类别;将所述该侧视图的目标区域和类别与所述立体视觉目标区域和类别进行合并,得到最终目标区域。优点:能够在图像中检测不同远近大小的目标。
技术领域
本发明涉及一种基于立体视觉的目标检测方法及系统,属于图像处理技术领域。
背景技术
常用的深度学习图像目标检测方法包括Faster-RCNN、YOLO、SSD等,这些算法对近处较大的目标,有很好的检测效果,但是都存在对远处较小目标的检测不理想的情况,这就会影响到目标检测算法在实际中的应用。
发明内容
本发明所要解决的技术问题是克服现有技术对远处较小目标检测效果不理想的问题,提供一种基于立体视觉的目标检测方法及系统。
为解决上述技术问题,本发明提供一种基于立体视觉的目标检测方法,对立体视觉的一侧视图使用深度学习算法进行目标检测,获取该侧视图的目标区域和类别;
采用基于立体视觉的视差图处理算法获取候选目标区域,对候选目标区域使用深度学习分类模型进行分类,得到立体视觉目标区域和类别;
将所述该侧视图的目标区域和类别与所述立体视觉目标区域和类别进行合并,得到最终目标区域。
进一步的,为了对图像中的较大目标进行检测;
采用深度学习YOLOV3目标检测算法,对立体视觉的一侧视图进行目标检测,以获得目标区域和类别及类别置信度。
进一步的,为了在局部最优的视差求取方法的基础上,添加正则化约束并通过动态规划思想来提高计算结果平滑性,以达到求解最优视差图的目的;
对立体视觉的该侧视图和位于该侧视图对面的侧视图进行双目标定,利用半全局立体匹配算法对标定后的两侧视图进行立体匹配,得到立体视觉视差图;
获取立体视觉视差图中每个像素点的隶属度数据,对隶属度数据进行二值化处理,以消除孤立的像素,得到消除孤立像素后的隶属度数据二值化图像,对得到的消除孤立像素后的隶属度数据二值化图像通过种子填充算法进行处理,以获取该二值化图像的联通区域,获取每一个联通区域的外接矩形,形成候选目标区域。
进一步的,为了判定候选目标区域的类别及类别置信度;
利用深度学习ResNet34模型对候选目标区域进行分类得到立体视觉目标区域和类别及类别置信度。
进一步的,对立体视觉一侧视图的目标检测结果和立体视觉目标检测结果进行融合;
对该侧视图的目标区域和立体视觉目标区域,计算它们之间的交并比;
通过交并比和预先设定的阈值进行比较,若交并比大于阈值则以两个区域的类别置信度较大的区域为最终目标区域,若交并比小于等于阈值的两个区域,则这两个区域都为最终目标区域。
一种基于立体视觉的目标检测系统,包括单侧视图目标区域和类别获取模块、立体视觉目标区域和类别获取模块以及最终目标区域获取模块;
所述单侧视图目标区域和类别获取模块用于对立体视觉的一侧视图使用深度学习算法进行目标检测,获取该侧视图的目标区域和类别及类别置信度;
所述立体视觉目标区域用于采用基于立体视觉的视差图处理算法获取候选目标区域,对候选目标区域使用深度学习分类模型进行分类,得到立体视觉目标区域和类别及类别置信度;
所述最终目标区域获取模块用于将所述该侧视图的目标区域和类别与所述立体视觉目标区域和类别进行合并,得到最终目标区域。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京和光智能制造研究院有限公司;江苏孔德惟道智能科技有限公司,未经南京和光智能制造研究院有限公司;江苏孔德惟道智能科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911127836.7/2.html,转载请声明来源钻瓜专利网。