[发明专利]视频处理方法、装置、计算机设备和存储介质有效
申请号: | 202010534550.7 | 申请日: | 2020-06-12 |
公开(公告)号: | CN111683269B | 公开(公告)日: | 2021-08-17 |
发明(设计)人: | 刘孟洋;徐敘远 | 申请(专利权)人: | 腾讯科技(深圳)有限公司 |
主分类号: | H04N21/234 | 分类号: | H04N21/234;H04N21/2343;H04N21/44;H04N21/4402;G06N3/04;G06N3/08;G06N20/00;G06K9/00 |
代理公司: | 广州华进联合专利商标代理有限公司 44224 | 代理人: | 李文渊 |
地址: | 518000 广东省深圳*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 视频 处理 方法 装置 计算机 设备 存储 介质 | ||
1.一种视频处理方法,其特征在于,所述方法包括:
从待处理视频中提取视频帧;
对所述视频帧进行下采样,得到对应的低分辨率图像;
从所述低分辨率图像中提取第一全局图像特征和第一局部图像特征;
利用所述视频帧对应的引导图,对所述第一全局图像特征和所述第一局部图像特征拼接而成的图像特征张量进行上采样,得到逆色调映射参数;所述引导图是所述视频帧对应的高动态范围图像;所述高动态范围图像,是利用映射曲线或所述映射曲线对应的多个映射直线将所述视频帧的低动态范围像素信息映射到高动态范围的空间所得的;
基于所述逆色调映射参数和对应的视频帧生成高动态范围的目标视频帧。
2.根据权利要求1所述的方法,其特征在于,所述对所述视频帧进行下采样,得到对应的低分辨率图像包括:
对所述视频帧进行归一化处理,得到归一化的视频帧;
将所述归一化的视频帧输入至机器学习模型;
通过所述机器学习模型对所述归一化的视频帧进行下采样,得到对应的低分辨率图像。
3.根据权利要求2所述的方法,其特征在于,所述机器学习模型的训练步骤包括:
获取视频帧样本和对应的标签;
将所述视频帧样本输入至机器学习模型,并通过所述机器学习模型对所述视频帧样本进行下采样,得到对应的低分辨率图像样本;
从所述低分辨率图像样本中提取第二全局图像特征和第二局部图像特征;
利用所述视频帧样本对应的引导图,对所述第二全局图像特征和所述第二局部图像特征拼接而成的图像特征张量进行上采样,得到训练逆色调映射参数;
基于所述训练逆色调映射参数和对应的视频帧样本生成高动态范围的训练视频帧;
计算所述训练视频帧和所述标签之间的损失值;
根据所述损失值对所述机器学习模型的参数进行调整,直至模型收敛时停止训练。
4.根据权利要求3所述的方法,其特征在于,所述计算所述训练视频帧和所述标签之间的损失值包括:
选取已训练的深度学习网络作为映射函数;
通过所述映射函数将所述训练视频帧和所述标签依次映射到目标特征空间,得到对应的第一特征图像和第二特征图像;
计算所述第一特征图像和所述第二特征图像之间的损失值。
5.根据权利要求1所述的方法,其特征在于,所述从所述低分辨率图像中提取第一全局图像特征和第一局部图像特征包括:
通过至少两层高斯金字塔对所述低分辨率图像进行图像处理,得到至少两个不同分辨率的高斯图像;
将所述高斯图像和所述低分辨率图像进行组合,得到至少三层的第一图像金字塔;
从所述第一图像金字塔中提取第一全局图像特征和第一局部图像特征。
6.根据权利要求5所述的方法,其特征在于,所述高斯图像包括分辨率不同的第一高斯图像和第二高斯图像;所述通过至少两层高斯金字塔对所述低分辨率图像进行图像处理,得到至少两个不同分辨率的高斯图像包括:
通过高斯金字塔的第一层对所述低分辨率图像依次进行滤波和下采样,得到所述第一高斯图像;
通过所述高斯金字塔的第二层对所述第一高斯图像依次进行滤波和下采样,得到所述第二高斯图像。
7.根据权利要求5所述的方法,其特征在于,所述从所述第一图像金字塔中提取第一全局图像特征和第一局部图像特征包括:
通过第一卷积神经网络对第一图像金字塔进行卷积,得到中间图像特征;
利用第二卷积神经网络对所述中间图像特征进行卷积,得到第一局部图像特征;
采用第三卷积神经网络对所述中间图像特征进行卷积,并通过全连接层对所述第三卷积神经网络的输出结果进行融合,得到第一全局图像特征。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于腾讯科技(深圳)有限公司,未经腾讯科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010534550.7/1.html,转载请声明来源钻瓜专利网。