[发明专利]一种基于时域感知哈希的视频篡改检测方法和装置在审
申请号: | 201410039300.0 | 申请日: | 2014-01-27 |
公开(公告)号: | CN103747254A | 公开(公告)日: | 2014-04-23 |
发明(设计)人: | 文振焜 | 申请(专利权)人: | 深圳大学 |
主分类号: | H04N19/154 | 分类号: | H04N19/154;H04N19/142;H04N19/176;H04N19/94 |
代理公司: | 深圳市君胜知识产权代理事务所 44268 | 代理人: | 王永文;刘文求 |
地址: | 518060 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 时域 感知 视频 篡改 检测 方法 装置 | ||
1. 一种基于时域感知哈希的视频篡改检测方法,其特征在于,包括以下步骤:
A、对待检视频的每一帧图像进行同样的随机分块;以每一帧为单位计算各个分块的亮度均值,统计各个分块在时域通道上的亮度均值变化情况,形成待检视频的时域特征矩阵;
B、对时域特征矩阵进行量化,得到对应的哈希序列;
C、提取相同视频长度的原始视频的时域特征矩阵,并量化得到对应的哈希序列;根据待检视频和原始视频的哈希序列计算待检视频和原始视频的时域特征距离;
D、将所述时域特征距离与一设定的阈值进行比较,当所述时域特征距离小于所述阈值时,则待检视频没有被篡改;反之,则被篡改。
2.根据权利要求1所述的基于时域感知哈希的视频篡改检测方法,其特征在于,所述步骤A具体包括:
A1、对待检视频的每一帧图像进行同样的随机分块,在每一帧图像上随机产生多个矩形块,并对各个矩形块依次进行编号,其中,各个矩形块互相交叠,各个矩形块的大小随机产生;
A2、计算每一帧图像上相应的各个矩形块的亮度均值;
A3、将亮度均值形成对应的时域特征矩阵;每一行代表一个分块时域通道。
3.根据权利要求2所述的基于时域感知哈希的视频篡改检测方法,其特征在于,所述步骤B具体包括:
B1、在时域特征矩阵中,以每一个时域通道为指标行,依次计算该行第 列与第列亮度均值的差值,然后根据以下公式量化为哈希位串:;其中 ;为分块数目,即时域特征矩阵的行数,为视频帧数目,即时域特征矩阵的列数;从而得到对应的哈希序列。
4.根据权利要求3所述的基于时域感知哈希的视频篡改检测方法,其特征在于,所述步骤C具体包括:
C1、对于给定的待检视频以及某一目标视频,计算得到待检视频第K个分块的时域特征对应的哈希序列为,这里用表示,同时计算得到原始视频中某一视频片段的时域特征对应的哈希序列为,在此基础上,定义待检视频与目标视频片段的时域特征距离如下公式:;
其中,,的取值为系数权值,表达式如下式所示: ;为量化系数,它的值为视频序列时域特征对应的哈希序列之间的最大特征距离,同样为两个时域特征对应的哈希序列完全翻转后得到最大的感知距离,表达式为。
5.根据权利要求4所述的基于时域感知哈希的视频篡改检测方法,其特征在于,所述步骤D具体包括:
D1、将待检视频和原始视频片段的时域特征距离与一设定的阈值比较,当和之间的时域特征距离小于所述阈值时,则待检视频没有被篡改;当和之间的时域特征距离不小于所述阈值时,则待检视频被篡改。
6.根据权利要求1所述的基于时域感知哈希的视频篡改检测方法,其特征在于,在所述步骤D之后,还包括:
E、将原始视频和被篡改视频感知哈希值进行相同的分段,其中分段大小随机确定,以原始视频为X轴,以被篡改视频为Y轴,建立相似度矩阵;
F、计算相似度矩阵对角线的海民距离,当相似度矩阵在对角线处没有达到最大值时,对被篡改视频中此处视频进行定位。
7.根据权利要求1所述的基于时域感知哈希的视频篡改检测方法,其特征在于,在所述步骤A之前,还包括:
A0、对待检视频进行预处理。
8.一种基于时域感知哈希的视频篡改检测装置,其特征在于,包括:
时域特征矩阵提取模块,用于对待检视频的每一帧图像进行同样的随机分块;以每一帧为单位计算各个分块的亮度均值,统计各个分块在时域通道上的亮度均值变化情况,形成待检视频的时域特征矩阵;及提取相同视频长度的原始视频的时域特征矩阵;
量化模块,用于对时域特征矩阵进行量化,得到对应的哈希序列;
时域特征距离计算模块,用于根据待检视频和原始视频的哈希序列计算待检视频和原始视频的时域特征距离;
比较模块,用于将所述时域特征距离与一设定的阈值进行比较,当所述时域特征距离小于所述阈值时,则待检视频没有被篡改;反之,则被篡改。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳大学,未经深圳大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201410039300.0/1.html,转载请声明来源钻瓜专利网。