[发明专利]基于稀疏表示的无参考立体视频质量客观评价方法在审
申请号: | 201710566727.X | 申请日: | 2017-07-12 |
公开(公告)号: | CN109257591A | 公开(公告)日: | 2019-01-22 |
发明(设计)人: | 杨嘉琛;王焕玲;姜斌;朱英豪;计春祺 | 申请(专利权)人: | 天津大学 |
主分类号: | H04N17/00 | 分类号: | H04N17/00 |
代理公司: | 天津市北洋有限责任专利代理事务所 12201 | 代理人: | 吴学颖 |
地址: | 300072*** | 国省代码: | 天津;12 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 立体视频 稀疏表示 系数矩阵 客观评价 视觉感知 视觉感知图 显著性图 训练模型 感兴趣区域 加权因子 加权运算 能量幅度 质量预测 字典学习 参考 降采样 视频库 右视点 右视图 单目 范数 方差 视点 视频 视觉 图像 预测 | ||
本发明公开了一种基于稀疏表示的无参考立体视频质量客观评价方法:对立体视频进行降采样,得到立体视频对;对立体视频对左、右视点分别求单目能量幅度图,得到左、右视图的加权因子;立体视频对双视点进行加权运算,得到视觉感知图;在视觉感知图上计算视觉感兴趣区域,得到视觉感知显著性图;字典学习;对视觉感知显著性图稀疏表示,得到系数矩阵,得到其熵;对系数矩阵求均值,方差和二范数操作,得到系数矩阵;在视频库中选择视频对的系数矩阵和MOS用于训练,得到训练模型;利用训练模型对任一立体视频进行质量预测,得到最终客观预测值。本发明根据视觉感知图像,稀疏表示为工具,对立体视频质量做出更加全面、准确的客观评价。
技术领域
本发明涉及视频处理领域,更具体的说,是涉及一种基于稀疏表示的无参考立体视频质量客观评价方法。
背景技术
在人类感知世界的过程中,视觉信息扮演着很重要的角色。近年来,随着立体拍摄技术和立体显示技术的迅猛发展,越来越多的人开始观看3D电影,立体视频能够带给观众更加真实生动的立体场景,因此具有广阔的发展前景。但是,在立体视频的采集、压缩、传输和显示等过程中,诸多因素会导致视频质量下降。因此,十分有必要提出一种有效的立体视频质量评价算法,这对于提高立体视频处理系统的性能和提升人们的观看体验具有重要意义。
和图像质量评价方法一样,根据对参考视频的依赖程度,立体视频质量客观评价方法可以分为全参考型、半参考型和无参考型。全参考型需要参考视频的原始立体视频信息进行质量评价;半参考型只需要参考原始视频的部分信息;而无参考型不需要参考原始视频的任何信息就可以对立体视频的质量进行评价。并且,多数视频的获取具有随机性,质量评价过程中大多数无法得到无失真的原始立体视频。因此,不依赖于原始视频的无参考立体视频质量评价方法更有研究价值。
发明内容
本发明的目的是为了克服现有技术中的不足,提高立体视频质量评价的鲁棒性,提供一种基于稀疏表示的无参考立体图像质量客观评价方法,以稀疏表示为基础,又充分考虑双视点特性的立体视频质量客观评价方法,具体来说,就是根据人类视觉系统特性模拟大脑中形成的视觉感知图像,以稀疏表示作为工具,对立体视频质量做出更加全面、准确的客观评价。
本发明的目的是通过以下技术方案实现的。
本发明的基于稀疏表示的无参考立体视频质量客观评价方法,每个失真立体视频对由左视点和右视点组成,包括以下步骤:
第一步,对立体视频进行降采样处理,每隔一定帧数取一帧,得到总帧数为l的立体视频对;
第二步,模拟人类视觉特性,对第一步得到的立体视频对的左视点和右视点分别求其单目能量幅度图,得到左视图和右视图的加权因子WL(x,y,n)和WR(x+d,y,n);
第三步,将第一步得到的立体视频对的双视点(tl,tr)进行加权运算,得到一段视频的第n对图像的视觉感知图V(x,y,n),计算公式如下所示:
V(x,y,n)=WL(x,y,n)×tl(x,y,n)+WR(x+d,y,n)×tr((x+d),y,n)
第四步,在合成的视觉感知图V(x,y)上计算视觉感兴趣区域,得到视觉感知显著性图SM(x,y);
第五步,用图像进行字典学习;
第六步,对视觉感知显著性图SM(x,y)进行稀疏表示:首先对视频对的一幅图像进行稀疏表示,得到相应的系数矩阵C,随后对系数矩阵C进行求熵,得到其熵E;
第七步,对帧长为l的SM(x,y)视频的所有图像序列执行第六步,得到稀疏表示后的系数矩阵l×K,最后对系数矩阵在时间方向上进行求均值,方差和二范数操作,得到该视频处理后的系数矩阵(3×K);
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于天津大学,未经天津大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710566727.X/2.html,转载请声明来源钻瓜专利网。