[发明专利]一种融合双深度学习网络的无参考视频质量评价方法在审
申请号: | 202210352131.0 | 申请日: | 2022-04-03 |
公开(公告)号: | CN114972902A | 公开(公告)日: | 2022-08-30 |
发明(设计)人: | 李俊峰;李筱;周栋峰 | 申请(专利权)人: | 浙江理工大学 |
主分类号: | G06V10/774 | 分类号: | G06V10/774;G06V10/82;G06V20/40;G06N3/04;H04N21/44 |
代理公司: | 杭州中成专利事务所有限公司 33212 | 代理人: | 金祺 |
地址: | 310018 浙江*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 融合 深度 学习 网络 参考 视频 质量 评价 方法 | ||
1.一种融合双深度学习网络的无参考视频质量评价方法,其特征在于:将视频内每一帧的视频图像It输入至无参考视频质量评价网络,无参考视频质量评价网络首先通过双深度学习网络提取获得视频图像It的深度特征Ft,深度特征Ft经过ANN网络进行特征降维处理后输入双向门控循环网络,通过双向门控循环网络构建视频帧特征之间的联系获取视频帧质量分数qt,然后视频帧质量分数qt经过改进的时间记忆模型获得视频质量分数预测分量Q1,同时视频帧质量分数qt经过高斯分布回归预测模型获得视频质量分数预测分量Q2,视频质量分数预测分量Q1和视频质量分数预测分量再经过调节因子ρ进行优化调节获得最终的视频质量分数Q。
2.根据权利要求1所述的一种融合双深度学习网络的无参考视频质量评价方法,其特征在于:
所述双深度学习网络包括并联的InceptionV3网络和ResNet50网络,所述深度特征Ft为:
其中,表示卷积操作,gmean为全局平均池化gmean,gstd为全局标准差池化,表示在InceptionV3网络下的深度特征映射,表示在ResNet50网络下的深度特征映射:
3.根据权利要求2所述的一种融合双深度学习网络的无参考视频质量评价方法,其特征在于:
所述视频帧质量分数qt为:
其中,ωt为视频帧质量信息的权重,bt为视频帧质量信息的偏差参数,表示视频内每一帧图像It在通过双向门控循环网络后所得特征:
其中,BiGRU(·)表示双向门控循环网络操作,ANN(·)表示ANN网络的降维操作;
所述ANN网络包含两个全连接层和一个dropout层。
4.根据权利要求3所述的一种融合双深度学习网络的无参考视频质量评价方法,其特征在于:
所述改进的时间记忆模型包括在时间记忆模型的拟合过程中加入了正比例函数拟合与指数函数拟合获得记忆影响因素且在softmin-weighted模块的可微的softmin函数中加入参数ε获得视觉滞留影响因素引入参数δ用于的平衡记忆影响因素和视觉滞留影响因素以此获得第t帧图像的质量评分Q′t,然后获得改进的时间记忆模型的预测分量Q1,具体为:
在tm∈(t-τ,t-1)帧对第t帧的记忆影响因素为:
其中,qm表示进行最小值池化操作后得到的帧质量分数,lt1和lt2分别表示利用正比例函数和指数函数进行拟合得到的结果,Vp={t-τ,...,t-2,t-1};
在tc∈(t,t+τ)内的视频图像对第t帧图像的视觉滞留影响因素为:
其中,代表每帧图像的权重,Vc={t,t+1,...,t+τ},ε为参数,qn表示qt在t∈(t,t+τ)时的视频帧质量分数;
所述视频质量分数预测分量Q1为:
5.根据权利要求4所述的一种融合双深度学习网络的无参考视频质量评价方法,其特征在于:
所述视频质量分数预测分量Q2为:
其中,qc为经过平均值池化操作后所得特征,L为经过双向GRU处理后的特征维度,T为视频中总图像数;μc和σc分别为当前整个视频中所有帧经过平均值池化所得特征的均值和方差。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江理工大学,未经浙江理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210352131.0/1.html,转载请声明来源钻瓜专利网。