[发明专利]智能体主动构建环境场景图谱的方法、设备和探索方法有效
申请号: | 202110466006.8 | 申请日: | 2021-04-28 |
公开(公告)号: | CN113111192B | 公开(公告)日: | 2022-03-29 |
发明(设计)人: | 刘华平;郭迪;张新钰 | 申请(专利权)人: | 清华大学 |
主分类号: | G06F16/36 | 分类号: | G06F16/36;G06T17/00;G06N3/04;G06N3/08 |
代理公司: | 北京睿邦知识产权代理事务所(普通合伙) 11481 | 代理人: | 徐丁峰 |
地址: | 10008*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 智能 主动 构建 环境 场景 图谱 方法 设备 探索 | ||
1.一种智能体基于视觉信息主动构建环境场景图谱的方法,包括:
定义智能体所能执行的动作构成动作空间;
采集训练模型所需环境场景图像及对应的环境场景图谱数据集;
采集训练模型所需智能体探索环境路径;
采用环境场景图像及对应的环境场景图谱数据集和采集的智能体探索环境路径训练主动探索模型,主动探索模型是采用时序建模方法产生动作时间序列的模型;
基于训练好的主动探索模型生成动作,智能体采用所生成的动作探索环境,探索过程中,获得3D语义点云数据,然后利用3D语义点云数据构建环境场景图谱。
2.根据权利要求1所述的基于视觉信息主动构建环境场景图谱的方法,所述采集训练模型所需环境场景图像及对应的环境场景图谱数据集包括:
选取仿真场景环境;
将仿真场景网格化,对每个网格化节点定义有限个视角,获得每个网格化节点可达到的所有视角,构成一个视角集合;
对于视角集合中的每一个视角,获得智能体可捕捉的相应环境场景图像,结合对应深度图像,进而得到该视角对应的3D语义点云数据,利用3D语义点云数据构建环境场景图谱,得到该视角的环境场景图谱,遍历视角集合,得到环境所有视角对应环境场景图谱构成的环境场景图谱数据集。
3.根据权利要求1所述的基于视觉信息主动构建环境场景图谱的方法,所述采集训练模型所需智能体探索环境路径包括:
找到路径点并构成路径点有序集合;
利用插值,将路径点有序集合的点构成实际智能体通过动作空间中的动作能执行的路径点有序集合,构成探索环境路径。
4.根据权利要求3所述的基于视觉信息主动构建环境场景图谱的方法,所述找到路径点并构成路径点有序集合包括:
对于视角集合中的每一个视角,从环境场景图谱数据集中取相应的场景图谱;对于视角集合中的每一个视角所获得的环境场景图像,进行目标检测,以对应场景图谱中出现的目标物为准,删除掉检测错误的目标物,得到检测到的目标集合;从视角集合中任意选取视角作为起点,加入路径点有序集合,遍历其周围视角,选取周围视角中与起点视角相比,目标物数量增加最多的视角,将其继续加入路径点有序集合;再以新加入的视角为起点,重复上述过程,直到达到一个预先设定的最大距离,从而得到一个路径点有序集合。
5.根据权利要求4所述的基于视觉信息主动构建环境场景图谱的方法,所述主动探索模型由卷积神经网络、长短时记忆模型、长短时记忆模型和全连接层构成,其中卷积神经网络用于提取环境场景图像特征,长短时记忆模型用于提取场景图谱特征,用于生成动作,其中将环境场景图像特征,场景图谱特征和表征动作的特征顺次连接,作为长短时记忆模型每个时间步的输入层,长短时记忆模型每个时间步的输出层与全连接层连接。
6.根据权利要求5所述的基于视觉信息主动构建环境场景图谱的方法,
设初始参数为,初始参数为,初始参数为,全连接层初始参数为,隐藏层初始状态为,主动探索模型的迭代过程如下:
其中,表示当前迭代步数,表示当前迭代步数时智能体需要执行的动作,表示智能体执行完动作后得到的图像,表示智能体执行完动作后得到的环境场景图谱,函数计算第迭代步数时,执行各个动作的概率并选取概率大的动作作为主动探索模型的输出,构成可训练参数集合。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学,未经清华大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110466006.8/1.html,转载请声明来源钻瓜专利网。