[发明专利]用于自主机器应用的使用地图信息增强的地面实况数据的神经网络训练在审
申请号: | 202080041221.7 | 申请日: | 2020-04-03 |
公开(公告)号: | CN113906271A | 公开(公告)日: | 2022-01-07 |
发明(设计)人: | M·博亚尔斯基;U·穆勒;B·菲尔纳;A·阿克巴扎德 | 申请(专利权)人: | 辉达公司 |
主分类号: | G01C21/30 | 分类号: | G01C21/30;G01C21/36;G06N3/08;G05D1/02;G06K9/00 |
代理公司: | 北京市磐华律师事务所 11336 | 代理人: | 高伟 |
地址: | 美国加利*** | 国省代码: | 暂无信息 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 用于 自主 机器 应用 使用 地图 信息 增强 地面 实况 数据 神经网络 训练 | ||
1.一种方法,包括:接收与包括某时间动态参与者的位置的区域相对应的地图数据;相对于所述地图数据定位所述动态参与者;接收在该时间由所述动态参与者的传感器生成的传感器数据;至少部分地基于所述地图数据和所述定位,生成与所述传感器数据相对应的地面实况数据;以及使用所述传感器数据和所述地面实况数据训练神经网络。
2.如权利要求1所述的方法,其中生成所述地面实况数据包括:将所述地图数据变换到所述动态参与者的坐标系;确定由所述地图数据表示的一个或更多个特征;以及在所述坐标系内生成与所述一个或更多个特征相对应的标签或注释,其中所述地面实况数据表示所述标签或所述注释。
3.如权利要求1所述的方法,还包括:至少部分地基于全球导航卫星系统(GNSS)数据、全球定位系统(GPS)数据或由所述动态参与者的一个或更多个基于位置的传感器生成的差分GPS(DGPS)数据中的至少一个来确定包括所述位置的所述区域。
4.如权利要求1所述的方法,其中训练所述神经网络包括:训练所述神经网络以针对以下至少一项执行推理:对象检测、特征检测、道路特征检测、等待条件检测或分类、或未来轨迹生成。
5.如权利要求1所述的方法,还包括:接收表示所述动态参与者穿过由所述传感器数据表示的视场的至少一部分的轨迹的数据,其中生成所述地面实况数据包括:至少部分基于所述高清地图数据调整所述轨迹。
6.如权利要求5所述的方法,其中调整所述轨迹包括:将所述轨迹移向所述动态参与者的行进车道的轨道。
7.如权利要求1所述的方法,其中所述传感器数据包括图像数据、LIDAR数据、RADAR数据、SONAR数据或超声波数据中的至少一个。
8.如权利要求1所述的方法,其中生成所述地面实况数据包括:将所述地图数据从所述地图数据的第一坐标系变换到所述传感器数据的第二坐标系,其中所述地面实况数据对应于所述第二坐标系。
9.如权利要求8所述的方法,其中所述第一坐标系是三维(3D)世界空间坐标系,以及所述第二坐标系是二维(2D)图像空间坐标系。
10.一种方法,包括:接收表示高清(HD)地图的地图数据;接收由动态参与者的至少一个第一传感器生成的第一传感器数据;至少部分地基于所述第一传感器数据相对于所述高清地图定位所述动态参与者;接收由所述动态参与者的第二传感器生成的第二传感器数据;至少部分地基于所述定位将所述地图数据与所述第二传感器数据进行关联;以及至少部分地基于所述关联生成与所述第二传感器数据相对应的地面实况数据以用于训练神经网络。
11.如权利要求10所述的方法,其中所述关联包括:将所述地图数据变换到相对于所述动态参与者定向的坐标空间。
12.如权利要求11所述的方法,其中所述关联还包括:在所述变换之后,将所述地图数据从世界空间坐标转换为对应于所述第二传感器数据的传感器空间坐标。
13.如权利要求10所述的方法,其中所述第一传感器数据表示所述一个或更多个第一传感器的视场内的一个或更多个特征,以及定位所述动态参与者包括:将所述一个或更多个特征与由所述高清地图表示的一个或更多个对应特征相关联。
14.如权利要求10所述的方法,还包括:接收由所述动态参与者的一个或更多个第三传感器生成的并且表示所述动态参与者穿过由所述第二传感器数据表示的视场的至少一部分的轨迹的第三传感器数据,其中生成所述地面实况数据包括:至少部分地基于所述地图数据调整所述轨迹。
15.如权利要求10所述的方法,其中所述地面实况数据与所述神经网络的输出在三维(3D)世界空间坐标中生成。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于辉达公司,未经辉达公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202080041221.7/1.html,转载请声明来源钻瓜专利网。