[发明专利]构造3D特征图的组优化深度信息方法和系统在审
申请号: | 201980012686.7 | 申请日: | 2019-01-29 |
公开(公告)号: | CN112074875A | 公开(公告)日: | 2020-12-11 |
发明(设计)人: | 董海巍;任远;基万·戈勒斯坦·艾冉妮 | 申请(专利权)人: | 华为技术有限公司 |
主分类号: | G06T19/20 | 分类号: | G06T19/20 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 518129 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 构造 特征 优化 深度 信息 方法 系统 | ||
1.一种计算机视觉系统,其特征在于,包括:
处理器;
耦合到所述处理器的多个摄像头,其中,所述多个摄像头位于宿主对象的周围,所述多个摄像头包括:至少两个前置摄像头,其具有所述对象所在环境的前视图;至少一个左侧摄像头,其具有所述对象所在环境的左视图;至少一个右侧摄像头,其具有所述对象所在环境的右视图;至少一个后置摄像头,其具有所述对象所在环境的后视图;
耦合到所述处理器的存储器,所述存储器有形地存储可执行指令,当所述可执行指令被所述处理器执行时,使得所述计算机视觉系统执行以下操作:
从所述多个摄像头采集的图像中选择图像组,所述图像组包括所述多个摄像头中每个摄像头的一个采集图像,所述图像在同一时间被捕获;
基于采集所述图像的所述各自摄像头的内在参数,对所述图像组中的每个图像进行图像失真补偿;
对所述图像组中的每个图像进行校正,使得所述图像组中的所有图像具有共同的图像平面;
基于所述多个摄像头中的每个摄像头的相对位置和校准,确定存在各自环境特征的所述图像组中每个图像多个环境特征的对应关系信息;
基于所述环境特征的对应关系信息,确定存在各自环境特征的所述图像组中每个图像所述多个环境特征中每个环境特征的深度信息;
使用确定的每个各自环境特征的深度信息,确定所述多个环境特征中每个环境特征的组优化深度信息。
2.根据权利要求1所述的计算机视觉系统,其特征在于,当所述可执行指令被所述处理器执行时,使得所述计算机视觉系统基于所述多个环境特征中每个环境特征的所述组优化深度信息生成所述对象所在环境的三维(three-dimensional,简称3D)特征图。
3.根据权利要求2所述的计算机视觉系统,其特征在于,当所述可执行指令被所述处理器执行时,使得所述计算机视觉系统在显示器上显示所述对象所在环境的3D特征图。
4.根据权利要求2所述的计算机视觉系统,其特征在于,当所述可执行指令被所述至少一个处理器执行时,使得所述计算机视觉系统将所述对象所在环境的3D特征图输出到车辆驾驶员辅助系统或自主车辆系统。
5.根据权利要求1至4任一项所述的计算机视觉系统,其特征在于,当所述可执行指令被所述处理器执行时,使得所述计算机视觉系统根据出现所述环境特征的每个图像中每个环境特征的噪声分布模型计算最大似然估计。
6.根据权利要求5所述的计算机视觉系统,其特征在于,当所述可执行指令被所述处理器执行时,使得所述计算机视觉系统将每个环境特征的最大似然估计输出到车辆驾驶员辅助系统或自主车辆系统。
7.根据权利要求1至6任一项所述的计算机视觉系统,其特征在于,当所述可执行指令被所述处理器执行时,使得所述计算机视觉系统在从采集的图像中选择所述图像组时,确保所述多个摄像头中每个摄像头有一个采集图像并与每个图像的时间戳一致,使得所述图像组中的图像在同一时间被捕获。
8.根据权利要求1至7任一项所述的计算机视觉系统,其特征在于,每个摄像头具有不同的视场,相邻摄像头具有至少部分重叠的视场。
9.根据权利要求1至8任一项所述的计算机视觉系统,其特征在于,所述对应关系信息定义了二维(two dimensional,简称2D)空间中的一系列位置,所述空间定义了对应于存在所述各自环境特征的每个图像的各自环境特征的坐标位置。
10.根据权利要求1至9任一项所述的计算机视觉系统,其特征在于,所述深度信息和每个环境特征的分组优化深度信息包括表示各自环境特征的3D空间中的一系列位置。
11.根据权利要求1至10任一项所述的计算机视觉系统,其特征在于,所述深度信息和每个环境特征的分组优化深度信息包括3D空间中代表各自环境特征中心或最近一点的位置。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华为技术有限公司,未经华为技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201980012686.7/1.html,转载请声明来源钻瓜专利网。