[发明专利]一种基于多维度视差先验的双目图片超分辨率重建方法有效
申请号: | 202110934301.1 | 申请日: | 2021-08-16 |
公开(公告)号: | CN113393382B | 公开(公告)日: | 2021-11-09 |
发明(设计)人: | 李长宇;张东阳;谢宁;邵杰 | 申请(专利权)人: | 四川省人工智能研究院(宜宾) |
主分类号: | G06T3/40 | 分类号: | G06T3/40;G06T5/50;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 北京正华智诚专利代理事务所(普通合伙) 11870 | 代理人: | 何凡 |
地址: | 644000 四川省宜宾市临*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 多维 视差 先验 双目 图片 分辨率 重建 方法 | ||
1.一种基于多维度视差先验的双目图片超分辨率重建方法,其特征在于,包括以下步骤:
S1:将双目相机采集的第一视图和第二视图分别输入至级联注意力双目超分网络的两条分支通道中;其中,所述级联注意力双目超分网络包括两条对称的分支通道,其分支通道均包括依次连接的卷积层、级联注意力块和上采样层,还包括插入至级联注意力块的视差多维度注意力模块(Parallax Multi-Dimensional Attention module,PMDA);
S2:利用卷积层将3通道的第一视图和第二视图分别转化为64通道的第三视图和第四视图;
S3:利用级联注意力块依次提取和聚合第三视图和第四视图的特征,并利用视差多维度注意力模块提取视图特征的视差先验信息;
S4:根据视图特征的视差先验信息得到双目相机采集的第一视图和第二视图的交互关系,并将第三视图和第四视图的特征融合至上采样层,利用上采样层对融合后的第三视图和第四视图的特征进行超分辨率重建,得到超分辨率图片;
所述步骤S3包括以下子步骤:
S31:利用级联注意力块依次提取和聚合第三视图的特征和第四视图的特征;
S32:将第三视图的特征和第四视图的特征均依次输入至视差多维度注意力模块中的残差块和卷积层,得到视图特征;
S33:基于视图特征,根据第三视图的特征函数,计算从第四视图到第三视图的第一注意力特征图,并通过第三视图的特征更新函数进行更新,得到第二注意力特征图;
S34:基于视图特征,根据第四视图的特征函数,计算从第三视图到第四视图的第三注意力特征图,并通过第四视图的特征函数更新进行更新,得到第四注意力特征图;
S35:计算第二注意力特征图和第四注意力特征图在通道维度、高度维度和宽度维度上的视差先验信息;
所述步骤S32中,视图特征的表达式为,其中,
所述步骤S33中,第三视图的特征函数
其中,
所述步骤S34中,第四视图的特征函数
;
所述步骤S35中,计算第二注意力特征图和第四注意力特征图在通道维度、高度维度和宽度维度上的视差先验信息的方法相同,均包括以下子步骤:
S351:在通道维度、高度维度和宽度维度上,分别重塑自注意力机制中的查询张量和键张量,得到第一查询张量、第二查询张量和第三查询张量、第一键张量、第二键张量和第三键张量,其中,
S352:对第一查询张量、第二查询张量和第三查询张量与第一键张量、第二键张量和第三键张量依次进行对应的矩阵相乘和归一化操作,得到第一依赖关系映射
S353:在通道维度、高度维度和宽度维度上重塑自注意力机制中的值张量,得到第一值张量、第二值张量和第三值张量,并将第一依赖关系映射
S354:将第一注意力机制更新后特征
所述步骤S352中,依赖关系映射
其中,
所述步骤S353中,注意力机制更新后特征
其中,
所述步骤S354中,视差先验信息的特征表达
其中,
2.根据权利要求1所述的基于多维度视差先验的双目图片超分辨率重建方法,其特征在于,所述步骤S1中,所述级联注意力双目超分网络采用自注意力机制;其中,级联注意力双目超分网络中的视觉多维度注意力模块用于输入两个视图,并提取两个视图的视差先验信息;
所述级联注意力块包括残差网络和视觉多维度自注意力模块;所述视觉多维度自注意力模块用于输入单一视图,并提取单一视图的视差先验信息。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于四川省人工智能研究院(宜宾),未经四川省人工智能研究院(宜宾)许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110934301.1/1.html,转载请声明来源钻瓜专利网。