[发明专利]一种面向物体位姿估计的合成数据模板库生成方法在审
申请号: | 202211496027.5 | 申请日: | 2022-11-25 |
公开(公告)号: | CN115908565A | 公开(公告)日: | 2023-04-04 |
发明(设计)人: | 李婧源;郭楠;高天寒 | 申请(专利权)人: | 东北大学 |
主分类号: | G06T7/73 | 分类号: | G06T7/73;G06T7/40;G06T7/70;G06T7/11;G06V10/75 |
代理公司: | 沈阳东大知识产权代理有限公司 21109 | 代理人: | 李在川 |
地址: | 110819 辽宁*** | 国省代码: | 辽宁;21 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 面向 物体 估计 合成 数据 模板 生成 方法 | ||
1.一种面向物体位姿估计的合成数据模板库生成方法,其特征在于,包括:
步骤1:通过LineMOD Occlusion数据集进行合成场景的搭建;
步骤2:基于斐波那契网格的相机视点生成方法生成目标图像与目标模板;
步骤3:基于动态放大的区域剪裁算法来实现目标区域的获取;
步骤4:将获取到的目标图像和目标模板的路径名称、文件名称按顺序写入.txt文件中并保存,形成图像-模板匹配,生成最终的模板库。
2.根据权利要求1所述的一种面向物体位姿估计的合成数据模板库生成方法,其特征在于,所述步骤1包括:
步骤1.1:基于MeshLab提取LineMOD Occlusion数据集中目标物体3D模型的纹理信息;
步骤1.2:将纹理信息与3D模型一同导入至Unity中获得带有纹理信息的目标物体3D模型;
步骤1.3:以目标物体3D模型为中心,设置8个线性光源对目标物体3D模型实现光照;
步骤1.4:利用Unity Perception中的Perception Camera的脚本对相机进行绑定,完成合成场景的搭建。
3.根据权利要求1所述的一种面向物体位姿估计的合成数据模板库生成方法,其特征在于,所述步骤2包括:
步骤2.1:将目标物体3D模型放入新建空白场景中,调整相机位置和目标物体3D模型的位置,使相机位于目标物体的正上方;
步骤2.2:基于斐波那契网格计算球体表面采样点,具体公式为:
其中,n为采样点,N为采样点的总数,xn、yn、zn分别为第n个采样点的对应坐标轴坐标,R为要采样球体的半径;
步骤2.2:在每一帧中均读取虚拟相机位置,更改虚拟相机位置为步骤2.2计算所得采样点位置;
步骤2.3:设置虚拟相机旋转角度;
步骤2.4:利用步骤2.2获取到的相机视角对模型进行不同角度的采集,分别保存为目标模板和目标图像。
4.根据权利要求3所述的一种面向物体位姿估计的合成数据模板库生成方法,其特征在于,所述步骤2.3具体表述为:获取虚拟相机和目标物体3D模型坐标,并计算虚拟相机指向目标物体3D模型的向量;在Unity中,虚拟相机的视野指向为其Z轴方向,故通过调用在世界坐标系下指向自身前方的函数transform.forward保证虚拟相机的始终指向目标物体3D模型,实现相机旋转角度的设定。
5.根据权利要求3所述的一种面向物体位姿估计的合成数据模板库生成方法,其特征在于,所述步骤2.4具体表述为:
步骤2.4.1:目标模板生成,使用Unity Perception中的语义分割标注和目标检测标注作为标注器,为3D模型添加标签配置字段,获取目标物体的2D边界框和掩膜的标注,设置迭代次数,生成目标模板的标签并进行存储;
步骤2.4.2:目标图像生成,导入可放置目标物体的模型(如桌子模型)于目标物体的正下方,利用纹理随机化对新导入的模型(如桌子模型)进行设置,按照步骤2.4.1进行配置,得到目标图像的标签并进行存储。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于东北大学,未经东北大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211496027.5/1.html,转载请声明来源钻瓜专利网。