[发明专利]一种基于高斯dropout的深度学习模型不确定度计算方法在审
申请号: | 202110043576.6 | 申请日: | 2021-01-13 |
公开(公告)号: | CN112733945A | 公开(公告)日: | 2021-04-30 |
发明(设计)人: | 刘磊;郑芮;孙明斋 | 申请(专利权)人: | 中国科学技术大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/08 |
代理公司: | 北京科迪生专利代理有限责任公司 11251 | 代理人: | 张乾桢 |
地址: | 230026 安*** | 国省代码: | 安徽;34 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 dropout 深度 学习 模型 不确定 计算方法 | ||
1.一种基于高斯dropout的深度学习模型不确定度计算方法,其特征在于,包括如下步骤:
步骤1、对深度学习模型权重进行dropout采样,等价于对普通深度学习模型权重施加了一个贝努利分布,即在不改变模型结构的情况下将普通深度学习模型转换成贝叶斯深度学习模型;其中包括:对于深度学习模型节点和节点之间失活满足高斯分布,也就是给上一层的所有节点到下一层某个节点的权值分配权值,权值满足正态分布;
步骤2、对于深度学习模型进行训练时,采用变分推断的方法求出模型近似后验分布,即用一个分布近似后验概率的分布,计算二者之间的KL散度并且通过优化使得二者之间的KL散度最小化,最后得到最佳近似后验分布;
步骤3、将贝叶斯深度学习模型的优化简化成训练好带有高斯dropout层的深度学习模型;
步骤4、得到高斯dropout贝叶斯深度学习模型,采用Monte Carlo采样得到输出分布,计算采样的样本均值和标准差即得到输出分布结果。
2.根据权利要求1所述的一种基于高斯dropout的深度学习模型不确定度计算方法,其特征在于,所述步骤2、包括如下步骤:
对于深度学习模型的训练,在给定训练数据集D={(X1,Y1),(X2,Y2),……,(XN,YN)},X为数据样本,Y为对应的标签,N为训练集的数据量;想获得到模型权重的后验分布p(W|X,Y);模型权重的后验分布p(W|X,Y)由贝叶斯公式得到:
先验分布p(W)被设定为标准正态分布,但是由于边际分布p(Y|X)需要在整个W进行积分,采用变分推断的方法求出模型近似后验分布,即用一个更加简单的分布qθ(W)去近似后验概率的分布p(W|X,Y),计算二者之间的KL散度并且通过优化使得二者之间的KL散度最小化,最小化KL散度等价于最小化似然函数的下限negative evidence lower bound(ELBO),也就是最小化:
-∫qθ(W)logp(Y|X,W)dW+KL[qθ(W)|p(w)]
最后得到最佳近似后验分布W为权值矩阵。
3.根据权利要求1所述的一种基于高斯dropout的深度学习模型不确定度计算方法,其特征在于,所述步骤3具体包括如下步骤:
基于优化贝叶斯深度学习模型的negative evidence lower bound和优化利用dropout正则化网络模型的损失函数的等价关系,将贝叶斯深度学习模型的优化简化成训练带有高斯dropout层的深度学习模型。
4.根据权利要求1所述的一种基于高斯dropout的深度学习模型不确定度计算方法,其特征在于,所述步骤4具体包括如下步骤:
得到高斯dropout贝叶斯深度学习模型,采用Monte Carlo采样得到输出分布,计算采样的样本均值和标准差即得到输出分布结果,分布均值即为模型预测结果,方差即为模型不确定度。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学技术大学,未经中国科学技术大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110043576.6/1.html,转载请声明来源钻瓜专利网。