[发明专利]一种视频图像的解码方法和装置在审
申请号: | 201811169846.2 | 申请日: | 2018-09-27 |
公开(公告)号: | CN109120936A | 公开(公告)日: | 2019-01-01 |
发明(设计)人: | 贺禄元 | 申请(专利权)人: | 贺禄元 |
主分类号: | H04N19/172 | 分类号: | H04N19/172;H04N19/44 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 115007 辽宁省营口*** | 国省代码: | 辽宁;21 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 背景帧 帧序列 保留 方法和装置 解码 背景视频 视频图像 插帧 解码处理 解码效率 视频文件 图像视频 不均匀 位置处 丢弃 申请 学习 | ||
1.一种视频图像的解码方法,其特征在于,所述方法包括:
从一视频文件中提取背景视频包;
对所述背景视频包进行解码处理,得到包括多个保留帧的保留帧序列,所述保留帧序列中不同的相邻保留帧之间的时间间隔不均匀,并且如果两个相邻保留帧之间曾被丢弃至少一个背景帧,则所述两个相邻保留帧之间的时间间隔是初始时间间隔的N倍,N为整数,且N大于或等于2,
如果两个相邻保留帧之间未曾被丢弃背景帧,则所述两个相邻保留帧之间的时间间隔保持为所述初始时间间隔,
所述初始时间间隔是对所述视频图像进行采集时相邻视频帧之间的时间间隔;
基于深度学习在所述保留帧序列中曾被丢弃背景帧的位置处进行插帧处理,得到包括多个背景帧的背景帧序列。
2.如权利要求1所述的方法,其特征在于,所述基于深度学习在所述保留帧序列中曾被丢弃背景帧的位置处进行插帧处理包括:
基于预定的深度学习模型,根据两个相邻的第一保留帧和第二保留帧,生成预测帧;
将所述预测帧插入到所述第一保留帧和所述第二保留帧之间。
3.如权利要求1所述的方法,其特征在于,所述方法还包括:
根据所述保留帧序列中不同的相邻保留帧之间的时间间隔确定丢帧率和/或被丢弃的背景帧的位置信息。
4.如权利要求1所述的方法,其特征在于,所述方法还包括:
从所述视频文件中提取前景视频包;
对所述前景视频包进行解码处理,得到包括多个前景帧的前景帧序列。
5.如权利要求4所述的方法,其特征在于,所述方法还包括:
从所述视频文件中提取一辅助信息,所述辅助信息至少包括所述前景帧在所述背景帧中的位置信息;
根据所述辅助信息对所述前景帧序列和所述背景帧序列进行融合处理,得到视频帧序列。
6.如权利要求5所述的方法,其特征在于,所述辅助信息还包括一丢帧信息,所述丢帧信息包括丢帧率和/或被丢弃的背景帧的位置信息。
7.如权利要求5所述的方法,其特征在于,所述辅助信息还包括一指示信息,所述方法还包括:
根据所述指示信息从多个备选深度学习模型中选择一目标深度学习模型;
所述基于深度学习在所述保留帧序列中曾被丢弃背景帧的位置处进行插帧处理进一步包括:
基于所述目标深度学习模型在所述保留帧序列中曾被丢弃背景帧的位置处进行插帧处理。
8.如权利要求7所述的方法,其特征在于,所述多个备选深度学习模型分别对应不同帧率的保留帧序列。
9.一种视频图像的解码装置,其特征在于,所述装置包括:
一背景提取模块,用于从一视频文件中提取背景视频包;
一背景解码模块,用于对所述背景视频包进行解码处理,得到包括多个保留帧的保留帧序列,所述保留帧序列中不同的相邻保留帧之间的时间间隔不均匀,并且如果两个相邻保留帧之间曾被丢弃至少一个背景帧,则所述两个相邻保留帧之间的时间间隔是初始时间间隔的N倍,N为整数,且N大于或等于2,
如果两个相邻保留帧之间未曾被丢弃背景帧,则所述两个相邻保留帧之间的时间间隔保持为所述初始时间间隔,
所述初始时间间隔是对所述视频图像进行采集时相邻视频帧之间的时间间隔;
一插帧模块,用于基于深度学习在所述保留帧序列中曾被丢弃背景帧的位置处进行插帧处理,得到包括多个背景帧的背景帧序列。
10.如权利要求9所述的装置,其特征在于,所述插帧模块包括:
一预测单元,用于基于预定的深度学习模型,根据两个相邻的第一保留帧和第二保留帧,生成预测帧;
一插帧单元,用于将所述预测帧插入到所述第一保留帧和所述第二保留帧之间。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于贺禄元,未经贺禄元许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811169846.2/1.html,转载请声明来源钻瓜专利网。