[发明专利]一种分类模型的训练方法、分类方法及相关装置在审
申请号: | 202111113434.9 | 申请日: | 2021-09-18 |
公开(公告)号: | CN113822357A | 公开(公告)日: | 2021-12-21 |
发明(设计)人: | 周郭许;范庭玮;邱育宁;孙为军 | 申请(专利权)人: | 广东工业大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 北京集佳知识产权代理有限公司 11227 | 代理人: | 刘思言 |
地址: | 510060 广东省*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 分类 模型 训练 方法 相关 装置 | ||
本申请公开了一种分类模型的训练方法、分类方法及相关装置,其中训练方法包括:获取原始训练样本集;对所述原始训练样本集中的训练样本进行塔克分解还原,得到新的训练样本;通过所述新的训练样本对预先构建的深度神经网络进行训练,得到分类模型,其中,所述深度神经网络中设置有去噪模块。解决了现有技术中的防御方法提高深度神经网络对对抗样本的鲁棒性时,深度神经网络计算量增加,耗时增加,导致实际应用性降低的问题。
技术领域
本申请涉及信息技术领域,尤其涉及一种分类模型的训练方法、分类方法及相关装置。
背景技术
随着科技技术的进步,数据收集变得越来越容易,计算机算力也在不断提升,使得深度神经网络在实际应用中取得较大成功,如:图像识别,语音识别等。深度神经网络可以从训练样本中学习出具有相当高精度的模型,接着便可以利用训练好的模型对测试样本进行分类。
然而最近研究表明,深度神经网络极易受到攻击,假设输入样本a到训练好的分类模型中,分类模型判断分类结果为第一类,若攻击者通过攻击算法对样本a做细微改变,得到样本a’(也称为对抗样本,其中a与a’十分相似,肉眼难以分辨),再将样本a’输入至分类模型中,此时的分类结果将不再是第一类。在现实生活中攻击算法的存在将阻碍深度神经网络的发展,例如,车辆在自动驾驶中需要识别周围的路牌来执行下一步决策,假设前方路牌限速30公里每小时,但有人蓄意更改路牌,通过攻击算法生成路牌,使得深度神经网络将此路牌识别成其他指令,将导致严重后果。
现有技术通过防御方法对攻击算法进行防御,以提高深度神经网络对对抗样本的鲁棒性。然而现有的防御方法在实际应用时,导致深度神经网络的计算量增加、耗时增加,进而影响了实用性。
发明内容
本申请提供了一种分类模型的训练方法、分类方法及相关装置,解决了现有技术中的防御方法提高深度神经网络对对抗样本的鲁棒性时,深度神经网络计算量增加,耗时增加,导致实际应用性降低的问题。
有鉴于此,本申请第一方面提供了一种分类模型的训练方法,包括:
获取原始训练样本集;
对所述原始训练样本集中的训练样本进行塔克分解还原,得到新的训练样本;
通过所述新的训练样本对预先构建的深度神经网络进行训练,得到分类模型,其中,所述深度神经网络中设置有去噪模块。
可选地,对所述原始训练样本集中的训练样本进行塔克分解还原,得到新的训练样本,包括:
获取用于进行塔克分解还原的分解秩;
基于所述分解秩,将所述原始训练样本集中的训练样本进行塔克分解,得到各训练样本对应的三个因子矩阵和一个核心张量;
将同一训练样本的三个所述因子矩阵、所述核心张量的模式积相乘,并将得到的乘积作为该训练样本对应的新的训练样本。
可选地,所述原始训练样本集对应多个分类结果。
可选地,所述深度神经网络包括残差网络,所述去噪模块为非局部均值去噪模块;
所述残差网络的残差块中设置有所述非局部均值去噪模块。
本申请第二方面提供了一种分类方法,包括:
获取待分类数据和预设的分类模型,其中,所述预设的分类模型是通过如第一方面中任一所述的分类模型的训练方法训练得到的;
将所述待分类数据输入至所述分类模型,得到所述待分类数据对应的分类结果。
本申请第三方面提供了一种分类模型的训练装置,包括:
获取单元,用于获取原始训练样本集;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广东工业大学,未经广东工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111113434.9/2.html,转载请声明来源钻瓜专利网。