[发明专利]一种基于深度学习多源异构网络的药物重定位方法有效
申请号: | 202010531562.4 | 申请日: | 2020-06-11 |
公开(公告)号: | CN111681718B | 公开(公告)日: | 2022-08-23 |
发明(设计)人: | 彭绍亮;冯潇逸;谭蔚泓;李肯立;何敏;曾湘祥;骆嘉伟;陈浩;王小奇;罗娟 | 申请(专利权)人: | 湖南大学 |
主分类号: | G16C20/50 | 分类号: | G16C20/50;G16C20/70;G06N3/04;G06N3/08 |
代理公司: | 国防科技大学专利服务中心 43202 | 代理人: | 王文惠 |
地址: | 410012 湖*** | 国省代码: | 湖南;43 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 学习 多源异构 网络 药物 定位 方法 | ||
1.一种基于深度学习多源异构网络的药物重定位方法,其特征在于,包括以下步骤:
步骤一:基于随机游走方法计算多源异构网络的拓扑结构信息,包括以下步骤:
1.1.输入多源异构数据集D=[D1,D2,…,D9],其中,D表示和药物相关的多源异构数据集,D1,D2,D3,…,D9分别表示药物-药物相互作用矩阵,药物-靶标相互作用矩阵,药物-副作用关联矩阵以及6种药物相似性矩阵;
1.2.基于随机游走方法,分别计算并捕获D中数据集的网络结构信息并描述每种药物的拓扑上下文,得到每个矩阵的概率共现矩阵集合C=[C1,C2,C3…C9],C表示概率共现矩阵的集合,C1,C2,C3,…,C9分别表示步骤1.1中的输入数据集D的概率共现矩阵,其中概率共现矩阵的计算公式为:
Ci,k=wCi,k-1A+(1-w)Di
其中Ci,k表示概率共现矩阵集合C中每个矩阵Ci的第k轮迭代结果,Di表示步骤1.1中的输入数据集合D中的原始01矩阵,w表示概率,A表示原始邻接矩阵;
1.3.将1.2步骤获得的概率共现矩阵集合C作为输入,分别计算集合中每个概率共现矩阵的移位正点互信息矩阵PPMI,其中PPMI矩阵的计算公式为:
其中C为步骤1.2中获得的概率共现矩阵,C(i,j)表示概率共现矩阵C中第i行,第j列的数据,Nr和Nc分别表示矩阵的行数和列数,求得的负数值设置为0;
步骤二:利用步骤一生成的多源异构数据的互信息矩阵PPMI数据集对图卷积编码器神经网络进行训练,其中,图卷积编码器神经网络包括四个图卷积层、四个sigmoid层和一个拼接层,且网络顺序为图卷积层、sigmoid层、图卷积层、sigmoid层、拼接层、图卷积层、sigmoid层、图卷积层、sigmoid层;每个图卷积层的维度分别为500,100,500,1519,每个拼接层维度为9*100;
步骤三:将交叉熵损失函数作为图卷积编码器神经网络的损失函数,并结合BP算法更新网络参数,使得网络随着训练的进行,网络输出越来越接近正确输入数据, 其中,损失函数为:Loss=-∑ktk*log yk,其中,k表示输入到图卷积编码器神经网络的药物关联数据,log表示以e为底数的自然对数,yk是模型的输出,tk是输入到图卷积编码器模型的药物关联矩阵的正确标签;训练完成后保留输出模型的第二层图卷积层的药物特征矩阵作为步骤四的输入数据;
步骤四:利用步骤三的训练后的药物特征矩阵和已知的药物-疾病关联矩阵作为输入,对变分自编码器模型进行训练,其中,变分自编码器模型神经网络包括六个全连接层,四个Relu层,一个sigmoid层,且网络顺序为全连接层、Relu层、全连接层、Relu层、两个全连接层分别计算均值和方差、全连接层、Relu层、全连接层、Relu层、sigmoid层;
步骤五:将高斯平方差损失函数,交叉熵损失函数以及计算高斯分布的KL散度作为变分自编码器神经网络的损失函数,并结合BP算法更新网络参数,使得网络随着训练的进行,网络输出越来越接近正确输入数据,其中,变分自编码器的损失函数为:
其中,yj和xj是模型的输出,L表示样本中随机抽取的样本数,和表示计算随机样本L中每个样本的满足高斯分布的数据,m表示y的维度,d表示x的维度,μj和σj表示变分自编码器两个全连接层分别计算均值和方差,pθ表示满足uj和zj情况下,yj和xj的后验概率。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于湖南大学,未经湖南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010531562.4/1.html,转载请声明来源钻瓜专利网。