[发明专利]一种基线自适应调整的双目相机智能感知方法及其装置有效
申请号: | 202110534929.2 | 申请日: | 2021-05-17 |
公开(公告)号: | CN113259589B | 公开(公告)日: | 2023-05-02 |
发明(设计)人: | 王郸维;温明星;张俊;彭国豪 | 申请(专利权)人: | 中新国际联合研究院 |
主分类号: | H04N23/61 | 分类号: | H04N23/61;G06T7/50;G06T7/70 |
代理公司: | 广州市华学知识产权代理有限公司 44245 | 代理人: | 李盛洪 |
地址: | 510000 广东省广州市广*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基线 自适应 调整 双目 相机 智能 感知 方法 及其 装置 | ||
本发明公开了一种基线自适应调整的双目相机智能感知方法及其装置,所述方法包括以下步骤:从图像中检测出目标物体,获取目标物体的像素位置;根据当前设定的基线B1以及相机内部和外部参数,通过双目深度估计算法计算目标物体的深度及深度不确定性;判断当前的深度不确定性是否过大,若大于期望的深度不确定性,则通过期望的深度不确定性计算期望的基线B2;自动将基线调整至期望的基线B2处;通过双目相机在线标定技术,从环境中提取特征点,并在左右图像中进行特征匹配,以获取新的外部参数;根据新的外部参数和基线B2,重新计算目标物体的深度及深度不确定性,本发明可以根据被测物体距离远近,自动调整基线,确保深度估计误差符合预期。
技术领域
本发明涉及视觉测量技术领域,特别涉及一种基线自适应调整的双目相机智能感知方法及其装置。
背景技术
当前,在机器人、无人驾驶、安防监控、智能交通等领域,为了增强设备的感知能力,多种传感器被采用,比如,单目相机、双目相机、热感相机、激光雷达等。在众多传感器中,双目相机因其能同时提供环境的图像与密集的深度信息,并具备较低的成本,而得到广泛应用。
但是,现有的双目相机大多采用固定基线的方案,导致其对远、近物体的深度估计的误差有较大差异。具体而言,就是随着被测物体的距离增加,深度估计的误差成平方倍地快速增加。因此,固定基线的双目相机对于距离较近的物体,深度估计的误差小;对于距离较远的物体,深度估计的误差大。如果希望对于远近物体深度估计的误差保持不变,则需要改变相机的基线。
尽管目前存在一些变基线的双目相机,但其无法根据被测物体的远近自动地确定合适的基线长度,并调节基线到合适的位置。在某些场合下,我们往往只对某一类物体,比如:行人、汽车、飞机等感兴趣,需要获取其深度信息,误差波动应尽可能小,以便于进行三维动态跟踪。因此,一个能根据被测物体的深度自动调节基线大小,使得对被测物体深度估计的误差波动较小的双目相机,具备重要的实用价值。
发明内容
本发明的目的在于克服现有技术中的上述缺陷,提供了一种可根据被测物体距离远近,自适应调整基线,以确保深度估计误差符合预期的双目相机智能感知方法及其装置。
为实现上述目的,本发明提供了一种基线自适应调整的双目相机智能感知方法,包括以下步骤:
步骤S1,从图像中检测出目标物体,获取目标物体的像素位置;
步骤S2,根据当前设定的基线B1以及相机内部和外部参数,通过双目深度估计算法计算目标物体的深度及深度不确定性;
步骤S3,判断当前的深度不确定性是否过大,若大于期望的深度不确定性,则通过期望的深度不确定性计算期望的基线B2;
步骤S4,自动将基线调整至期望的基线B2处;
步骤S5,通过双目相机在线标定技术,从环境中提取特征点,并在左右图像中进行特征匹配,以获取新的外部参数;
步骤S6,根据新的外部参数和基线B2,重新计算目标物体的深度及深度不确定性。
作为优选的,所述步骤S1中包括以下步骤:
步骤S11,确定任务关注的目标物体类别;
步骤S12,所述双目相机中的左相机获取原始图像,采用相机参数完成图像预处理:取消原始图像的畸变和对原始图像进行矫正;
步骤S13,将处理后的图像输入深度卷积神经网络,获取目标物体的像素位置。
作为优选的,所述步骤S2中包括以下步骤:
步骤S21,通过双目相机标定算法,完成当前设定的基线B1的参数标定;
步骤S22,通过双目相机深度估计算法,计算在当前设定的基线B1时的视差图与深度图,以及每个深度值对应的不确定性;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中新国际联合研究院,未经中新国际联合研究院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110534929.2/2.html,转载请声明来源钻瓜专利网。