[发明专利]基于双流自注意力神经网络的图像篡改定位方法及系统在审
申请号: | 202210858439.2 | 申请日: | 2022-07-20 |
公开(公告)号: | CN115082774A | 公开(公告)日: | 2022-09-20 |
发明(设计)人: | 钟浩;梁炜健;黄远航 | 申请(专利权)人: | 华南农业大学 |
主分类号: | G06V20/00 | 分类号: | G06V20/00;G06V10/82;G06V10/44;G06V10/80;G06N3/04;G06N3/08 |
代理公司: | 广州粤高专利商标代理有限公司 44102 | 代理人: | 林丽明 |
地址: | 510642 广*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 双流 注意力 神经网络 图像 篡改 定位 方法 系统 | ||
本发明涉及图像篡改定位技术领域,提出一种基于双流自注意力神经网络的图像篡改定位方法及系统,包括以下步骤:将待检测定位的输入图像进行约束卷积滤波处理,得到滤波图像;将输入图像和滤波图像分别进行重组编码后,分别输入基于自注意力的第一篡改图像编码器和第二篡改图像编码器中,分别输出第一特征图和第二特征图;其中,第一篡改图像编码器和第二篡改图像编码器中每个计算阶段包括若干堆叠设置的自注意力模块;将第一特征图和第二特征图进行拼接后,分别经过通道域和空间域解码,得到篡改区域定位结果。本发明通过自注意力神经网络捕获局部与全局不一致的能力,并通过RGB模态与异常噪声提取模态的互补,有效提高了篡改图像定位的精度。
技术领域
本发明涉及图像篡改定位技术领域,更具体地,涉及一种基于双流自注意力神经网络的图像篡改定位方法及系统。
背景技术
目前对于数字图像的篡改研究主要集中在对篡改图像的篡改区域进行定位上,基于深度学习方法在图像篡改定位任务上具有十分优异的效果,评价指标远远优于手工提取特征(如重采样特征、色彩滤波阵列(CFA、color filter array)等)的传统算法。
目前大部分基于深度学习的取证算法是基于卷积神经网络的,卷积神经网络通过堆叠卷积层能够获得较长距离的感受野,但每一层还是通过多个卷积核采用滑动窗口的方式计算像素之间的关系,无法一次性捕获局部信息与全局信息之间的关系。如现有的图像篡改检测方法,提出对图像进行特征提取得到全局特征图,获取特征图对应的通道权重系数和空间权重系数;通过通道权重系数以及空间权重系数,对疑似篡改特征图进行重构,得到重构特征图;对重构特征图进行潜在篡改区域定位,得到篡改区域粗略位置信息;根据篡改区域粗略位置信息对所述全局特征图进行裁剪处理,获得对应位置的局部特征图;对局部特征图进行解码处理,得到待检测图像的篡改区域掩膜。其无法一次性捕获局部特征信息与全局特征信息,以及二者之间的关系,导致篡改图像定位精度效果难以满足使用需求。
发明内容
本发明为克服上述现有技术所述的无法一次性捕获局部信息与全局信息之间的关系导致篡改图像定位准确率低的缺陷,提供一种基于双流自注意力神经网络的图像篡改定位方法及系统。
为解决上述技术问题,本发明的技术方案如下:
基于双流自注意力神经网络的图像篡改定位方法,包括以下步骤:
将待检测定位的输入图像进行约束卷积滤波处理,得到滤波图像;
将所述输入图像和滤波图像分别进行重组编码后,分别输入基于自注意力的第一篡改图像编码器和第二篡改图像编码器中,分别输出第一特征图和第二特征图;其中,所述第一篡改图像编码器和第二篡改图像编码器中分别包括至少3个计算阶段,每个计算阶段包括若干堆叠设置的自注意力模块;
将第一特征图和第二特征图进行拼接后,分别经过通道域和空间域解码,得到篡改区域定位结果。
进一步地,本发明还提出一种基于双流自注意力神经网络的图像篡改定位系统,应用上述技术方案提出的图像篡改定位方法,其中包括:
第一篡改图像编码器,包括至少3个计算阶段,每个计算阶段包括若干堆叠设置的自注意力模块;第一篡改图像编码器用于对待检测定位的输入图像基于自注意力机制进行编码,输出第一特征图;
约束卷积滤波模块,用于对待检测定位的输入图像进行约束卷积滤波处理,得到滤波图像;
第二篡改图像编码器,包括至少3个计算阶段,每个计算阶段包括若干堆叠设置的自注意力模块;第二篡改图像编码器用于对滤波图像基于自适应空间域滤波和自注意力机制进行编码,输出第二特征图;
双流网络解码模块,用于将第一特征图和第二特征图进行拼接后,分别经过通道域和空间域解码,得到篡改区域定位结果。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华南农业大学,未经华南农业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210858439.2/2.html,转载请声明来源钻瓜专利网。