[发明专利]基于支持向量机模型线性逼近的黑盒测试方法及系统在审
申请号: | 202110652909.5 | 申请日: | 2021-06-11 |
公开(公告)号: | CN113283534A | 公开(公告)日: | 2021-08-20 |
发明(设计)人: | 陈晋音;金海波;郑海斌 | 申请(专利权)人: | 浙江工业大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62 |
代理公司: | 杭州天勤知识产权代理有限公司 33224 | 代理人: | 胡红娟 |
地址: | 310014 浙*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 支持 向量 模型 线性 逼近 黑盒 测试 方法 系统 | ||
本发明公开了一种基于支持向量机线性逼近的黑盒测试方法及系统,其中公开了基于支持向量机线性逼近的黑盒测试方法:获取图像样本数据集模型,并对黑盒深度学习模型进行预训练;根据获取的样本数据集构建若干支持向量机基础分类器;根据若干支持向量机基础分类器定义若干数据源级变异算子计算若干数据源级变异算子的安全上界;对若干数据源级变异算子的安全上界进行排序进行安全性评估。本发明还公开了基于支持向量机线性逼近的黑盒测试系统,包括收集模块、构建支持向量机模块、构建变异算子模块、计算最小安全上界模块、评估模块。
技术领域
本发明涉及黑盒测试领域,特别涉及一种基于支持向量机线性逼近的黑盒测试方法及系统。
背景技术
深度学习即DL在包括自动驾驶、机器人、游戏、视频监控在内的诸多领域具有十分广泛的应用前景。然而,随着近来深度学习相关的灾难性事故频发,人们对的鲁棒性和安全性提出了更高的要求。
现有的对深度学习的安全性测试采用的方法如公开号CN112052933A的中国专利申请中提供的基于粒子群优化的深度学习模型的安全性测试方法和修复方法,包括以下步骤:(1)获取良性图像组成样本集,利用良性图像对原始深度学习模型进行预训练;(2)根据覆盖率和输入图像在预训练的原始深度学习模型和其他深度学习模型中针对同一类标标签的类别预测值之间的差异构建目标函数;(3)从样本集中采集部分良性图像作为初始粒子,并初始化粒子的位置和速度,以目标函数最大为目标,采用粒子群优化算法对初始化粒子的位置和速度进行迭代更新,当算法结束时,若不能够获得表示恶性图像的最优粒子,则认为原始深度学习模型安全,若能获得表示恶性图像的最优粒子,则认为原始深度学习模型不安全。
但是,随着人们对深度学习的安全性能越来越高的要求,因此不许对深度学习的安全性进行多方位的测试;由于黑盒模型内部的结构不透明,无法为用户所涉及,只能通过输入输出这一唯一评估标准来对模型的安全性进行评估,为深度学习在黑盒场景下的安全性测试带来了巨大的挑战。
发明内容
为解决现有技术中存在的问题,本发明提供一种基于支持向量机线性逼近的黑盒测试方法,该方法具有良好的适用性,能够有效的测试模型的安全性,并发现可能存在的风险范围。
一种基于支持向量机线性逼近的黑盒测试方法,包括如下步骤:
(1)获取图像样本数据集及模型,并对黑盒深度学习模型进行预训练;
(2)根据获取的样本数据集构建若干支持向量机基础分类器;
(3)根据若干支持向量机基础分类器定义若干数据源级变异算子;
(4)计算若干数据源级变异算子的安全上界;
(5)对若干数据源级变异算子的安全上界进行排序进行安全性评估。
步骤(1)获取数据图像样本数据集包括收集MNIST样本数据集、CIFAR-10样本数据集和ImageNet样本数据集;将手机的图像样本数据集保存为X以及每张图像相应的类标Y。
步骤(2)中所述的构建支持向量机基础分类器的步骤如下:
(2.1)构建单个支持向量机分类器:
对于包含m类样本的数据集,需要训练m个支持向量机分类器,每个分类器实现判别目标类和非目标类样本的二分类任务,单个分类器可以表示为:
其中,j表示支持向量机分类的序号,j∈[0,m-1],αi表示样本对应的拉格朗日系数,即在分类器中需要优化的参数,yi∈{1,-1}表示二分类中各个样本对应的类标,1表示目标类,-1表示除目标类外的其它类,K(·,·)表示核函数,β表示偏置,xi表示各个训练样本,x表示待识别的样本;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江工业大学,未经浙江工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110652909.5/2.html,转载请声明来源钻瓜专利网。