[发明专利]一种基于训练集数据的对抗攻击方法有效
申请号: | 202010197885.4 | 申请日: | 2020-03-19 |
公开(公告)号: | CN111488916B | 公开(公告)日: | 2023-01-24 |
发明(设计)人: | 韩亚洪;安健侨;石育澄;贾凡 | 申请(专利权)人: | 天津大学 |
主分类号: | G06F18/214 | 分类号: | G06F18/214;G06F18/24 |
代理公司: | 天津市北洋有限责任专利代理事务所 12201 | 代理人: | 李素兰 |
地址: | 300072*** | 国省代码: | 天津;12 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 训练 集数 对抗 攻击 方法 | ||
本发明公开了一种基于训练集数据的对抗攻击方法,步骤1、使用VOC2007图像数据集训练检测模型;步骤2、对训练集中图像进行筛选寻找单类别训练集图像Y;步骤3、使用图像集Y构建KD‑tree进行存储;步骤4、对要攻击的图片,首先通过KD‑tree查询在Y中和它距离最近的非同类别训练图像步骤5、构造初始径向噪声z*;步骤6、构造扰动空间,并通过对扰动空间随机取样得到η;步骤7、调整图像检测框内的扰动量,根据η生成新的对抗样本x′;步骤8、对新的对抗样本x′进行查询;步骤9、重复步骤5、6,7、8直到攻击成功,得到最终对抗样本x′,并将对抗样本输入到目标模型中进行分类,得出分类结果F(x′)。本发明可以在最快速度下达到攻击效果,且产生的扰动也非常小。
技术领域
本发明涉及机器学习安全技术领域,尤其涉及一种面向深度图像识别系统的灰盒对抗决策攻击的方法。
背景技术
对于许多没有防御措施的深度学习模型被认为很容易受到对抗性攻击,向原图像增加小的扰动就可以恶意误导模型,使模型错分。研究者对设计不同的对抗性攻击方法来欺骗最先进的深度卷积网络做了大量研究。攻击大致可以分三类:①基于梯度的迭代攻击,比如FGSM、I-FGSM、VR-IGSM等一系列FGSM的变体;②基于优化的迭代攻击,比如CW(CarliniWagner);③基于决策边界的攻击,比如boundary attack。
Tanay和Griffin提供了一种边界倾斜视角,对深度神经网络的对抗样本的存在进行了研究。他们认为,一般来说,当一个单类数据被抽样来学习和评估一个分类器时,存在一个类的子簇,当分类边界靠近这个子簇时,就存在这个类的对抗样本。他们将分类器的对抗性强度的概念形式化,并将其简化为考虑分类器边界与最近的质心分类器之间的偏差角。结果表明,分类器的对抗强度可以随决策边界的倾斜而变化。作者还认为分类器的对抗稳定性与正则化有关。在Tanay和Griffin的观点中,关于对抗样本存在的线性假设是无法令人信服的。
发明内容
本发明旨在提出一种基于训练集数据的对抗攻击方法,通过分析检测模型的训练集数据分布,使图像沿着离他最近的训练集图像的方向靠近,同时结合检测模型的分类框所在位置,以达到构建攻击能力更强的对抗样本的目的。基于修正边界攻击
本发明的一种基于训练集数据的对抗攻击方法,具体包括以下步骤:
步骤1,使用VOC大规模图像分类数据集构成的图像集合Img训练检测模型:
Img={x1,xi,…,xNd},i={1,2,…,Nd}
其中,xi表示一张图像,Nd表示图像集合Img中的图像总数;
构建图像集合的集合IMG,其中每个图像xk对应的检测框Tk:
Tk={(q11,p11,q21,p21,l1)…(q1i,p1i,q2i,p2i,li)},i=1,2,…,Rn
其中,(q11,p11,q21,p21)表示每一个图像检测框所对应的左上角坐标和右下角坐标,Rn表示该图像中检测框的数量,li表示第i个检测框内图像的类别;
由图像集合Img以及每个图像对应的图像描述集合Result组成最终的数据集并训练检测模型:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于天津大学,未经天津大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010197885.4/2.html,转载请声明来源钻瓜专利网。