[发明专利]基于光线隐式场的多视角建模方法、装置和建模设备在审
申请号: | 202210768179.X | 申请日: | 2022-07-01 |
公开(公告)号: | CN115170628A | 公开(公告)日: | 2022-10-11 |
发明(设计)人: | 徐凯;惠军华;施逸飞;蔡志平;陈垚 | 申请(专利权)人: | 中国人民解放军国防科技大学 |
主分类号: | G06T7/50 | 分类号: | G06T7/50;G06T17/00;G06V10/774;G06V10/80;G06V10/82 |
代理公司: | 长沙国科天河知识产权代理有限公司 43225 | 代理人: | 邱轶 |
地址: | 410073 湖*** | 国省代码: | 湖南;43 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 光线 隐式场 视角 建模 方法 装置 设备 | ||
1.一种基于光线隐式场的多视角建模方法,其特征在于,所述方法包括:
根据相机参数和多视图的二维特征构建成本体积,根据所述成本体积的三维特征得到参考视图的初始深度图;其中多视图包括参考视图和多个源视图;
从所述参考视图的相机取景方向投射一组光线,根据所述初始深度图得到各光线的初始深度,分别在各光线初始深度的预设范围内均匀采样,得到各光线对应的若干个采样点;
通过极线感知器的自注意力机制层得到各采样点的多视图的二维特征间的匹配相关性,根据所述匹配相关性得到各采样点的多视图融合特征,将所述多视图融合特征和所述成本体积的三维特征叠加得到各采样点的融合特征;
将所述各采样点的融合特征依次输入预先训练好的序列模型得到各采样点的序列特征和对应的整条光线特征,根据所述光线特征预测得到对应光线隐式场的深度值;
根据所有光线隐式场的深度值得到所述参考视图的精确深度图,根据所述精确深度图进行多视角建模。
2.根据权利要求1所述的方法,其特征在于,所述通过极线感知器的自注意力机制层得到各采样点的多视图的二维特征间的匹配相关性,根据所述匹配相关性得到各采样点的多视图融合特征,包括:
通过极线感知器的自注意力机制层得到各采样点的多视图的二维特征间的匹配相关性为:
S=SelfAttention(Q,K,V)=Softmax(QKT)V
Q=XWQ
K=XWk
V=XWv
其中,S为匹配相关性分数,Q为查询向量,K为键向量,V为值向量,X为输入的多视图二维特征,WQ、Wk、Wv分别为自注意力机制层学习得到的查询向量、键向量、值向量的权重,为在第P个采样点的多视图的二维特征,N为采样点的个数,I为多视图的视图数量。
根据所述匹配相关性得到各采样点的多视图融合特征为:
Z=RddNorm(X)=LayerNorm(X+S)
其中LayerNorm(·)为层标准化函数。
3.根据权利要求1所述的方法,其特征在于,所述极线感知器包括4个自注意力机制层;各所述自注意力机制层后包括2个AddNorm层和1个前馈层。
4.根据权利要求1所述的方法,其特征在于,所述将所述多视图融合特征和所述成本体积的三维特征叠加得到各采样点的融合特征,包括:
将所述多视图融合特征和所述成本体积的三维特征叠加得到各采样点的融合特征为:
其中,为采样点的多视图融合特征,为成本体积的三维特征,Fp为采样点的融合特征。
5.根据权利要求1所述的方法,其特征在于,所述将所述各采样点的融合特征依次输入预先训练好的序列模型得到各采样点的序列特征和对应的整条光线特征,包括:
将所述各采样点的融合特征依次输入预先训练好的序列模型得到对应的整条光线特征为:
ck=zf○ck-1+zi○z
hk=zo○tanh(ck)
其中,Fk为采样点的序列特征,hk-1为第k-1个隐节点,z为单元输入激活向量,zf为遗忘门激活向量,zu为更新门激活向量,zo为输出门激活向量,ck为第k个时刻输出的光线特征预测值,W、Wf、Wu、Wo分别为单元输入门、遗忘门、更新门和输出门的权重矩阵,b、bf、bu、bo分别为单元输入门、遗忘门、更新门和输出门的偏置向量,○为点乘运算符号。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国人民解放军国防科技大学,未经中国人民解放军国防科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210768179.X/1.html,转载请声明来源钻瓜专利网。