[发明专利]一种结合深度特征的双目立体视觉匹配方法有效
申请号: | 201610919222.2 | 申请日: | 2016-10-21 |
公开(公告)号: | CN106355570B | 公开(公告)日: | 2019-03-19 |
发明(设计)人: | 张印辉;王杰琼;何自芬 | 申请(专利权)人: | 昆明理工大学 |
主分类号: | G06T7/30 | 分类号: | G06T7/30;G06T7/593 |
代理公司: | 昆明知道专利事务所(特殊普通合伙企业) 53116 | 代理人: | 姜开侠;王远同 |
地址: | 650500 云南省昆明*** | 国省代码: | 云南;53 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开一种结合深度特征的双目立体视觉匹配方法,包括对左右图像经卷积神经网络得深度特征图,以深度特征为基准计算像素深度特征截断相似性测度,构造组合颜色、梯度和深度特征的截断匹配代价函数得匹配代价卷;对匹配代价卷采用固定窗口、可变窗口、自适应权重聚合或引导滤波方法得经过匹配代价聚合的代价卷;将前述代价卷采用WTA选择最优视差得初始视差图,然后采用双峰测试、左—右一致性检测、顺序一致性检测或遮挡约束算法寻找遮挡区域,将遮挡点赋予距离最近同行点的视差值得视差图;对视差图用均值或双边滤波器对视差图滤波得最终视差图。本发明能够有效降低立体匹配的误匹配率,图像平滑且有效保持图像边缘包括细小物体的边缘。 | ||
搜索关键词: | 一种 结合 深度 特征 双目 立体 视觉 匹配 方法 | ||
【主权项】:
1.一种结合深度特征的双目立体视觉匹配方法,包括匹配代价计算、匹配代价聚合、视差计算、视差图优化步骤,具体包括:A、匹配代价计算:将已校正的双目立体视觉传感器获得的左右两幅图像通过构造卷积神经网络CNN得到其深度特征图,以深度特征为基准计算像素的深度特征截断相似性测度,然后构造组合颜色、梯度和深度特征的截断匹配代价函数,根据立体图像对的视差搜索范围完成所有视差值下的匹配代价计算后得到匹配代价卷;所述截断相似性测度为:
(1)其中x、y分量表示特征点的二维空间坐标,d表示视差值,Dl和Dr分别表示左深度图像、右深度图像,T是截断上限;所述构造组合颜色、梯度和深度特征的截断匹配代价函数为:![]()
![]()
(2)其中Ñx表示图像x方向的梯度,Il、Ir分别表示左极线、右极线,T1、T2、T3分别是三个部分的截断上限,α1、α2和1‑α1‑α2分别是基于颜色、梯度、深度测度的权重;B、匹配代价聚合:对A步骤的匹配代价卷采用固定窗口、多窗口、可变窗口、自适应权重聚合或引导滤波方法代价聚合得到经过匹配代价聚合的代价卷;C、视差计算:将B步骤聚合后得到的经过匹配代价聚合的代价卷采用胜者为王WTA算法选择最优视差得到初始视差图,然后对初始视差图采用双峰测试BMD、左—右一致性检测LRC、顺序一致性检测ORD或遮挡约束OCC算法寻找遮挡区域,将遮挡区域的遮挡点赋予距离其最近的同行点的视差值后得到视差图;D、视差图优化:对C步骤的视差图使用均值滤波器或双边滤波器对视差图进行滤波,在图像平滑的同时恢复误匹配像素点得到最终视差图。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于昆明理工大学,未经昆明理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201610919222.2/,转载请声明来源钻瓜专利网。
- 上一篇:一种带防身电击头和安全锤的充电宝
- 下一篇:具有信息反馈的功能的供电装置