[发明专利]一种基于空时域自然场景统计特征的无参考视频质量评估方法有效
申请号: | 201410231196.5 | 申请日: | 2014-05-28 |
公开(公告)号: | CN104023225A | 公开(公告)日: | 2014-09-03 |
发明(设计)人: | 夏修妍;路兆铭;温向明;王鲁晗;万明飞 | 申请(专利权)人: | 北京邮电大学 |
主分类号: | H04N17/00 | 分类号: | H04N17/00 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 100876 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 时域 自然 场景 统计 特征 参考 视频 质量 评估 方法 | ||
技术领域
本发明涉及及对视频质量进行无参考客观评价的方法,特别涉及一种基于自然场景统计(NSS)的算法在网络失真对视频质量所造成影响的估计。
技术背景
随着无线网络和智能终端的发展,越来越多的用户开始在移动终端使用视频业务,比如视频会议,视频聊天等。由于视频的有损压缩和网络丢包,用户看到的视频质量可能会有所下降,为了保障视频业务的用户体验,越来越多的研究开始关注于如何测量视频质量。最可靠的质量评估方法是主观质量评估,然而这种方式是费时费力的,它不能用于实时业务中。客观质量评估方法,主要致力于根据视频的内容或特性建立一种算法,来预测视频的MOS值。其中,无参考估计方法因其不依赖原始视频且实时好,复杂度较低从而能够的很好的应用于online业务中,因此成为视频业务中最有前景的方法。
无参考视频质量评估中很多研究通过对视频流或帧图像进行质量评估,针对视频比特流可能被加密不可获取,基于重构帧中的像素分析方法更有可行性。在基于帧图像的视频质量评估中,很多算法是对特定的失真类型进行质量评估,如对压缩造成的块效应进行评估,对高斯模糊进行评价,然而在实际中视频失真的类型往往是不可知的,另外一些方法是基于训练的,通过对图像提取一些参数,然后结合机器学习方法得到图像质量,较依赖于训练库,只能在一些特定场景下取得不错的效果。本专利受图像统计学和视觉科学研究的启发,基于自然场景统计学特征,深入研究了视频不同于静态图像所特有的统计特性,特别是针对fastfading对视频造成的失真,本专利所提出的方法利用运动残差的统计特性描述视频的时域失真,并通过时域空域上对相应统计量分别建模,能够对视频质量做出更为有效的评价。
发明内容
为了实现上述目的,解决相应的技术问题,本发明通过以下方案实现:
步骤一:对视频序列中每一帧In(x,y),其中n代表帧序列,(x,y)代表像素点坐标,进行归一化处理得到帧ψn(x,y),归一化后的视频帧像素点值符合高义高斯分布;
步骤二:采用对称高斯分布拟合ψn(x,y)的分布;
步骤三:用基于N*N的块对帧ψn(x,y)计算两点间的相关性的方法计算空域相关性特征ρ;
步骤四:采用非对称高斯分布拟合ρ的分布;
步骤五:使用拉普拉斯核去对运动场进行滤波以判断视频场景是否发生了切换;
步骤六:对帧序列In(x,y),n=1,2,3...进行运动估计,通过对运动补偿帧和前一帧计算运动残差提取出视频的时域的NSS特性;
步骤七:根据前六步得到的数据,使用马氏距离对视频单帧进行质量评价,得到视频的空域质量;
步骤八:结合视觉迟滞效应对单帧视频质量进行时域质量聚合,得到最终视频质量。
附图说明
附图可提供对本发明的进一步理解,并且被包含在作为内容的说明书组成部分,其示出了本发明的实施例则,并且和说明书一起来解释本发明的原理。
图1示出整个方法的框架。
图2示出了基于N*N的块计算两点间的相关性方法。
图3示出了失真后的运动残差的统计特性相比于无失真视频的变化。
具体实施方式
先参照附图对本发明的优选实施例进行说明,尽可能地,在整个附图中相同的部分用相同或者相似的标号或文字表示。
附图1示出了本发明的方法框架,具体包括:
步骤一:对视频序列中每一帧In(x,y),其中n代表帧序列,(x,y)代表像素点坐标,进行归一化处理得到帧ψn(x,y),归一化后的视频帧像素点值符合高义高斯分布。自然图像区别于计算机图像、噪声图像等,它拥有一些固有的统计特性。为了模拟人眼HVS特性,研究者使用一些线性滤波器结果显示并不是严格服从高斯分布,而是有较长的拖尾。Ruderman提出了一种归一化方式,使得它更符合高斯分布,同样,我们首先对视频序列中每一帧进行了归一化处理:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京邮电大学,未经北京邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201410231196.5/2.html,转载请声明来源钻瓜专利网。