[发明专利]一种基于H264/AVC视频的PSNR盲估计方法有效
申请号: | 201610037960.4 | 申请日: | 2016-01-20 |
公开(公告)号: | CN105681784B | 公开(公告)日: | 2018-07-06 |
发明(设计)人: | 刘红梅;胡安强;陈一宇;黄继武 | 申请(专利权)人: | 中山大学 |
主分类号: | H04N17/00 | 分类号: | H04N17/00 |
代理公司: | 广州粤高专利商标代理有限公司 44102 | 代理人: | 林丽明 |
地址: | 510275 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 宏块信息 盲估计 宏块 对视频编码 编码方式 编码特征 参数估计 分布特性 视频内容 帧间预测 帧内预测 质量评价 分类 算法 噪声 多媒体 分析 | ||
本发明公开一种基于H264/AVC视频的PSNR盲估计方法,是分析H264/AVC视频编码特征而提出的参数估计方法,属于多媒体质量评价领域。本发明主要针对不同视频内容及H264/AVC视频的编码方式,分析了帧内预测与帧间预测对视频编码质量的影响,通过DCT系数分布特性计算PSNR值的算法,能够得到更加精确的PSNR估计值。本发明方法包括如下步骤:1)提取每一帧的DCT系数;2)提取每一帧的宏块信息;3)根据宏块信息对宏块进行分类;4)对分类后的宏块分别计算噪声并进一步得到PSNR估计值。本发明方法能大幅度提高H264/AVC视频的PSNR估计准确值,尤其在P帧与B帧方面。
技术领域
本发明涉及多媒体质量评价领域,具体涉及一种基于H264/AVC视频的PSNR盲估计方法。
背景技术
随着数字信息处理技术的发展以及各种视频摄像设备的普及,数字视频越来越多地出现在我们的生活里,逐步成为人们获取信息的重要途径。这给人们带来方便与娱乐的同时,也带来了其他的一些问题。比如视频质量问题逐渐引起人们的注意。很多时候人们是在线观看视频,因此很注重视频的质量与播放的流畅性。视频质量的评估可以监控视频系统性能,同时实时进行反馈使系统调整参数达到视频质量与播放流畅程度之间的平衡。PSNR是质量评价的重要参数,然而其计算需要原始视频与编解码之后的视频,因此对其进行盲估计显得很有必要。由于视频DCT系数满足一定特性,因此通过利用该特性以及相应的编码技术特性进行比较精确的PSNR盲估计成为可能。
发明内容
本发明的目的是提出一种基于H264/AVC视频的PSNR盲估计方法,通过该方法可以较准确的估计视频每帧的PSNR值。
为了实现上述目的,本发明的技术方案为:
一种基于H264/AVC视频的PSNR盲估计方法,具体步骤如下:
1)提取每一帧的DCT系数以及宏块信息;
2)根据宏块信息对宏块进行分类;
3)对分类后的宏块分别计算噪声并进一步得到PSNR估计值。
具体的各步骤的实现方式为:
步骤1)的实现方式为:利用H264/AVC的解码器JM对H264/AVC视频码流进行解码,以宏块为单位提取DCT系数以及每个宏块的预测信息。
所述步骤2)根据宏块信息对宏块进行分类的实现方式为:根据宏块预测信息对每一帧进行区域的划分,若该帧为I帧,则分为平坦区域与非平坦区域,若该帧为P帧或者B帧,则分为帧内预测区域,SKIP区域,以及普通帧间预测区域。
具体是:若该帧为I帧,则将每个宏块通过滤波器,识别出每个宏块是否属于平坦区域;滤波器是根据每个宏块及其相邻宏块的预测方式进行设计的,若该宏块以及相邻的宏块中至少有一个宏块是采用帧内16×16预测方式,则该宏块属于平坦区域;由此将该帧分成平坦区域与非平坦区域;若该帧为P帧或者B帧,则根据宏块信息将所有宏块分为3类,第一类为帧内预测宏块,即采用帧内预测方式的宏块,第二类为SKIP宏块,即采用SKIP预测方式的宏块,剩下的为第三类,即普通的帧间预测宏块。
所述步骤3)对分类后的宏块分别计算噪声,并进一步得到PSNR估计值,对帧内的不同区域分别进行噪声的估计,将每个区域的相加得到的总和作为该帧的总的噪声,并进一步得到估计的PSNR。
具体是:
若该帧为I帧,则对于非平坦区域的DCT系数使用PSNR计算方法计算非平坦区域的噪声,若量化因子小于20,则对平坦区域使用PSNR计算方法计算平坦区域的噪声,并与非平坦区域的噪声相加作为总的噪声,否则仅使用非平坦区域的噪声作为总的噪声;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中山大学,未经中山大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201610037960.4/2.html,转载请声明来源钻瓜专利网。