[发明专利]三维地图的生成及模型训练方法、装置及电子设备有效
申请号: | 201910155698.7 | 申请日: | 2019-03-01 |
公开(公告)号: | CN109961509B | 公开(公告)日: | 2020-05-05 |
发明(设计)人: | 夏华夏;任冬淳;穆荣均;郭潇阳;钱德恒 | 申请(专利权)人: | 北京三快在线科技有限公司 |
主分类号: | G06T17/05 | 分类号: | G06T17/05;G06N3/04;G06N3/08 |
代理公司: | 北京曼威知识产权代理有限公司 11709 | 代理人: | 方志炜 |
地址: | 100080 北京市海*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 三维 地图 生成 模型 训练 方法 装置 电子设备 | ||
1.一种三维地图的生成方法,其特征在于,所述方法包括:
确定目标设备在当前环境下对应的目标隐变量;所述目标隐变量用于表示所述目标设备在当前环境下,视角坐标与场景图像之间的转化影响因素;场景图像是反映目标设备当前所处环境的图像,视角坐标是场景图像所对应的图像采集视角的坐标;
确定视角坐标集合,所述视角坐标集合包括用于生成目标三维地图的多个目标视角坐标;所述目标三维地图为当前环境所对应的三维地图;
基于所述视角坐标集合中的目标视角坐标及所述目标隐变量,确定每个目标视角坐标对应的目标场景图像;
根据每个所述目标场景图像生成所述目标三维地图。
2.根据权利要求1所述的方法,其特征在于,所述确定目标设备在当前环境下对应的目标隐变量,包括:
在所述目标设备的当前环境下,采集多组样本数据,每组所述样本数据包括视角坐标与场景图像;
将所述多组样本数据输入至目标卷积神经网络,得到所述目标隐变量;
所述基于所述视角坐标集合中的目标视角坐标及所述目标隐变量,确定每个目标视角坐标对应的目标场景图像,包括:
将每个所述目标视角坐标及所述目标隐变量输入至目标循环神经网络,得到每个目标视角坐标对应的目标场景图像。
3.根据权利要求2所述的方法,其特征在于,所述目标卷积神经网络和所述目标循环神经网络通过如下方式训练:
执行以下目标操作:从样本集中选多组样本数据作为第一数据,以及选一组样本数据作为第二数据;将所述第一数据输入至当前的卷积神经网络,得到隐变量,所述隐变量用于表示视角坐标与场景图像之间的转化影响因素;将所述隐变量和所述第二数据对应的视角坐标输入至当前的循环神经网络,得到预测场景图像;
若基于所述预测场景图像与所述第二数据对应的场景图像,确定未满足预设条件,对所述卷积神经网络和所述循环神经网络的网络参数进行调整,并重新执行所述目标操作;
若基于所述预测场景图像与所述第二数据对应的场景图像,确定满足所述预设条件,输出经过调整后的目标卷积神经网络及目标循环神经网络。
4.根据权利要求3所述的方法,其特征在于,所述第一数据和所述第二数据为同一智能驾驶设备在同一环境下采集的数据;
所述目标操作还包括:
在将所述隐变量和所述第二数据对应的场景图像输入至当前的循环神经网络的同时,将随机生成的噪声信号也输入至当前的循环神经网络。
5.根据权利要求3所述的方法,其特征在于,通过如下方式确定满足所述预设条件:
确定目标函数,所述目标函数为所述预测场景图像与所述第二数据对应的场景图像之间的ELBO证据下线函数;
当所述目标函数收敛时,确定满足所述预设条件。
6.根据权利要求1-5中任一所述的方法,其特征在于,所述场景图像为感知图像;所述目标场景图像为目标感知图像;
所述根据每个所述目标场景图像生成所述目标三维地图,包括:
将每个所述目标感知图像输入至目标转换模型中,得到每个所述目标感知图像对应的目标视觉图像;
根据所述目标视觉图像生成所述目标三维地图。
7.一种用于生成三维地图的模型训练方法,其特征在于,所述方法包括:
执行以下目标操作:从样本集中选多组样本数据作为第一数据,以及选一组样本数据作为第二数据;每组所述样本数据包括视角坐标与场景图像;将所述第一数据输入至当前的卷积神经网络,得到隐变量,所述隐变量用于表示视角坐标与场景图像之间的转化影响因素;将所述隐变量和所述第二数据对应的视角坐标输入至当前的循环神经网络,得到预测场景图像;
若基于所述预测场景图像与所述第二数据对应的场景图像,确定未满足预设条件,对所述卷积神经网络和所述循环神经网络的网络参数进行调整,并重新执行所述目标操作;
若基于所述预测场景图像与所述第二数据对应的场景图像,确定满足所述预设条件,输出经过调整后的目标卷积神经网络及目标循环神经网络。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京三快在线科技有限公司,未经北京三快在线科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910155698.7/1.html,转载请声明来源钻瓜专利网。