[发明专利]基于深度神经网络的鲁棒压缩模型的信息处理方法及系统有效
申请号: | 201911302108.5 | 申请日: | 2019-12-17 |
公开(公告)号: | CN111178504B | 公开(公告)日: | 2023-04-07 |
发明(设计)人: | 裴庆祺;闫玉双 | 申请(专利权)人: | 西安电子科技大学 |
主分类号: | G06N3/0464 | 分类号: | G06N3/0464;G06N3/048;G06N3/08;G06F18/24 |
代理公司: | 西安长和专利代理有限公司 61227 | 代理人: | 何畏 |
地址: | 710071 陕西省*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 神经网络 压缩 模型 信息处理 方法 系统 | ||
1.一种基于深度神经网络的鲁棒压缩模型的信息处理方法,其特征在于,所述基于深度神经网络的鲁棒压缩模型的信息处理方法包括以下步骤:
第一步,输入层、第一层卷积层和激活层主要部署在移动设备端,第二层卷积层、激活层、池化层、第一层全连接层、激活层、第二层全连接层、激活层、第三层全连接层、激活层和输出层部署在边缘服务器端;移动设备和边缘服务器共同训练两层卷积层和三层全连接层的卷积神经网络;
第二步,定义每次选取小批量训练样本的个数,权重剪切阈值,模型剪切的总次数;对模型参数进行剪切并进行模型再训练,重复以上模型参数剪切和模型再训练后得到性能良好的压缩模型;
第三步,采用基于模型权重分布的防御机制,将拉普拉斯噪声加入到压缩模型中;
所述第三步具体包括:分别加入两个对称的拉普拉斯噪声分布,分别表示为和其中n表示训练数据集中训练样本的个数,Pm表示模型鲁棒参数,Pm越大,加入的拉普拉斯噪声越小,模型的鲁棒性越小;
全连接层的参数集合用fFC={fFC1,fFC2}={w1,w2...,wN},其中N=n1+n2,fFC1表示权重小于0的集合,fFC2表示权重大于等于0的集合;
定义为:基于模型权重分布的防御机制M(fFC)={M1(fFC1),M2(fFC2)}表示当输入fFC={fFC1,fFC2}时,输出鲁棒压缩模型fr。
2.如权利要求1所述的基于深度神经网络的鲁棒压缩模型的信息处理方法,其特征在于,所述第一步具体包括:定义输入训练数据集X={x1,x2,...,xn},损失函数L(Θ,X),目标函数Θ表示模型的参数,是惩罚项,||Θ||2表示二范数计算,λ表示惩罚项系数;
在第t轮迭代中,随机选取b个小批量训练样本,计算平均梯度其中gt(xi)表示训练样本xi在第t轮迭代训练时的梯度,Θt表示第t轮迭代的模型参数;通过计算Θt+1=Θt-ηtgt完成第t+1轮模型参数的更新,Θt+1表示第t+1轮迭代的模型参数,ηt表示学习率;经过T轮迭代训练,得到预训练模型f1。
3.如权利要求1所述的基于深度神经网络的鲁棒压缩模型的信息处理方法,其特征在于,所述第二步具体包括:定义每次选取小批量训练样本的个数为b,权重剪切阈值tpr,模型参数小于tpr时被剪切掉,模型剪切的总次数为k;根据tpr对模型参数进行剪切并进行模型再训练,重复以上模型参数剪切和模型再训练k次后得到性能良好的压缩模型。
4.如权利要求3所述的基于深度神经网络的鲁棒压缩模型的信息处理方法,其特征在于,每次模型参数剪切和模型再训练具体包括以下步骤:根据tpr对模型参数进行剪切;随机选取b个小批量训练样本,计算平均梯度其中gt(xi)表示训练样本xi在第t轮迭代训练时的梯度,Θt表示第t轮迭代的模型参数;通过计算Θt+1=Θt-ηtgt完成第t+1轮模型参数的更新,Θt+1表示第t+1轮迭代的模型参数,ηt表示学习率,进行T轮迭代训练;得到压缩模型f2。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学,未经西安电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911302108.5/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种网络学习辅助方法和系统
- 下一篇:一种图像识别方法、装置、设备及存储介质