[发明专利]一种基于JND模型的视频编码方法有效
申请号: | 201910352686.3 | 申请日: | 2019-04-29 |
公开(公告)号: | CN110139112B | 公开(公告)日: | 2022-04-05 |
发明(设计)人: | 易清明;范文卉;石敏 | 申请(专利权)人: | 暨南大学 |
主分类号: | H04N19/85 | 分类号: | H04N19/85;H04N19/154;H04N19/625;H04N19/80 |
代理公司: | 广州市华学知识产权代理有限公司 44245 | 代理人: | 林梅繁 |
地址: | 510632 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明属于视频编码技术领域,涉及一种基于JND模型的视频编码方法,包括:建立像素域JND模型;建立改进的DCT域JND模型,引入一个更符合人眼特性的时空域CSF函数;利用像素域JND模型对原始视频预处理,去除视频中的视觉冗余;使用改进的DCT域JND模型对变换不跳过模式进行处理,去除人眼无法感知的失真;对预测残差很小的变换跳过模式,则使用计算简单的亮度掩盖模型以降低计算复杂度。本发明采用像素域JND模型对视频进行预处理,能去除人眼视觉冗余,计算简单方便;采用改进的DCT域JND模型,使得处理结果更贴切人眼;针对不同模式使用不同的模型,能进一步去除视频编码过程中的感知冗余,大大提升视频编码效率。 | ||
搜索关键词: | 一种 基于 jnd 模型 视频 编码 方法 | ||
【主权项】:
1.一种基于JND模型的视频编码方法,其特征在于,包括:建立像素域JND模型,像素域JND模型使用非线性叠加模型,结合背景亮度自适应和纹理掩盖效应,得到像素域JND阈值;利用像素域JND模型对原始视频进行预处理,去除视频已经存在的视觉冗余;建立改进的DCT域JND模型,考虑人眼对阈值的影响,引入一个更符合人眼特性的时空域CSF函数,得到DCT域JND阈值;基于改进的DCT域JND模型进行视频编码。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于暨南大学,未经暨南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910352686.3/,转载请声明来源钻瓜专利网。