[发明专利]基于时间递归神经网络的微震信号到时自动拾取方法有效
申请号: | 201610743156.8 | 申请日: | 2016-08-26 |
公开(公告)号: | CN106407649B | 公开(公告)日: | 2019-01-29 |
发明(设计)人: | 郑晶;陆继任;彭苏萍 | 申请(专利权)人: | 中国矿业大学(北京) |
主分类号: | G06N3/08 | 分类号: | G06N3/08;G01V1/28 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 100083 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开一种基于时间递归神经网络的微震信号到时拾取方法。本方法把每一个微震记录按照统一固定的维数采样,再人为的拾取部分记录的到时作为对应记录的标签信息,已拾取信息的记录及其标签作为网络构建时的总数据集,分成三个部分:训练数据集、验证数据集、测试数据集;通过把数据输入到深度信念神经网络中进行训练和测试,构建时间递归神经网络;把未经过到时拾取数据输入到的训练好的网络模型中,网络输出为一个对应于输入数据的序列,序列中第一个不为零的点即为微震数据的到时点。 | ||
搜索关键词: | 基于 时间 递归 神经网络 信号 到时 自动 拾取 方法 | ||
【主权项】:
1.一种基于时间递归神经网络的微地震信号到时自动拾取方法,其特征在于,通过构建时间递归神经网络模型实现微地震信号的识别及到时自动拾取,具体实现步骤如下:步骤一:对微地震数据按照固定的维数进行采样;步骤二:对用于网络模型训练的数据进行人工到时拾取,作为对应样本数据的标签信息;步骤三:把数据和标签放到同一数据集中,并把数据集划分为训练数据集、验证数据集和测试数据集;步骤四:搭建具有输入层、隐层和逻辑回归层的三层时间递归神经网络模型;步骤五:获取时间总数T,并设置时间步长t;时间总数T的大小等于每一个输入样本数据的长度n,数据样本X=(x1,x2,...,xn),T=n;时间步长t∈T,取t=1;步骤六:数据按照时间步长t依次输入时间递归神经网络模型,进行模型训练;所述步骤六中,把时间递归神经网络的隐层视为一个长短期记忆模型,记忆模型包含m个神经元,一个神经元中包含一个输入门、一个遗忘门、一个输出门和一个元胞;每个神经元有8组输入权重和4组偏置项,4组权重用于t时刻输入数据xt与该神经元的连接权重,分别为:Wi∈Rm、Wf∈Rm、Wc∈Rm、Wo∈Rm;另外4组权重用于t时刻,上一个时间t‑1的输出ht‑1与该神经元的连接权重,分别为:Ui∈Rm×m、Uf∈Rm×m、Uc∈Rm×m、Uo∈Rm×m;4组偏置项分别为:bi∈Rm、bf∈Rm、bc∈Rm、bo∈Rm;其中,W∈Rm表示1×m维欧式空间,U∈Rm×m表示m×m维欧式空间,b∈Rm表示1×m维欧式空间;下标i、f、c、o分别表示用于输入门、遗忘门、元胞、输出门;在t=1时刻,所有的权值W都初始为一个1×m维的服从均值为
范围在(‑a,a)之间的向量;所有的权值U都初始为一个m×m维的正交矩阵;所有的偏置项b都初始为一个1×m维的全为0的向量;长短期记忆模型在每个时刻t接受一个输入层的值xt和一个t‑1时刻长短期记忆模型的输出ht‑1;其中xt为样本第t个元素,ht‑1在t=1时为0;长短期记忆模型参数的连接和计算方法如下:首先,通过遗忘门决定从元胞状态中丢弃什么信息,该门输入xt和ht‑1,输出一个在0和1之间的数值给每个元胞状态,1表示“完全保留”,0表示“完全舍弃”:ft=σ(Wfxt+Ufht‑1+bf),其中,
ft为t时刻遗忘门的激活值;其次,通过输入门确定什么样的新信息被存放到元胞状态中,这里包括两部分,第一为σ层决定什么值是将要更新的,第二是一个tanh层创建一个新的候选元胞值
it=σ(Wixt+Uiht‑1+bi)
其中
it为t时刻输入门的激活值;然后,把旧状态Ct‑1与ft相乘,丢弃掉确定更新的信息,接着加上it乘以
来决定更新每个状态的变化程度,从而把旧状态Ct‑1更新为新状态Ct:
最后,需要确定输出什么值,这个值基于元胞状态,这里包括两部分,第一为运行一个σ层来确定元胞状态的哪个部分将作为输出,第二是把元胞状态通过tanh层进行处理,并将它与σ层的输出相乘,这样输出的仅仅为确定要输出的那部分:ot=σ(Woxt+Uoht‑1+bo)ht=ot×tanh(Ct),其中,ot为t时刻输出门的激活值,ht为t时刻对应于输入xt在长短期记忆模型中的一个神经元的输出;步骤七:求取隐层每一个节点在所有时刻输出的最大值,并通过逻辑回归层得到网络输出;所述步骤七中,在不同的时间步长t中,每次的输入和输出都是不一样,但用到的参数W、U、b都是一样,参数共享;t时刻xt在长短记忆模型中的输出为ht,则所有时刻的输出为:H=(h1,h2,...,hn),求取该向量的最大值
作为隐层的输出,通过逻辑回归函数得出网络的预测输出hθ(xi),逻辑回归方程为:
其中θ为隐层与输出层之间连接权值和偏置项两个参数,hθ(xi)表示一个数据样本中第i个特征对应的预测输出;步骤八:计算网络输出与输入样本对应的标签之间的误差,通过随时间变化的误差反向传播来完成网络参数的更新;所述步骤八中,通过网络预测输出hθ(xi)与期望输出yi之间的误差建立损失函数,其中,y∈{0,1}:
其中n为一个样本中特征维数的大小;相应的建立目标函数:
求取目标函数对参数的梯度:
通过梯度下降的方法更新参数θ:
其中
为参数θ更新后的状态,α为学习率;随时间变化的误差反向传播,通过更新后的参数
通过它的转置和转换函数得到隐层的重构值:
其中
为样本第i个特征xi在隐层输出
的重构值;依次从t=n时刻到t=1时刻计算重构值
与每一个时刻长短期记忆模型的输出之间的误差,通过上述的方法计算得到对应的梯度,通过梯度下降的方法更新参数W、U、b;步骤九:设置一个验证参数N,当迭代训练N次后,进行一次交叉验证和测试,当验证误差趋于某值长期不变,且测试误差高于验证误差,即到达设定的准确率时停止网络训练,即基于时间递归神经网络的微地震信号到时自动拾取模型构建完成,否则返回步骤六,继续利用输入数据进行模型训练;步骤十:把未经过到时拾取的数据集输入到训练好的网络模型中,网络输出为对应于输入数据维度的一个序列;步骤十一:输出序列中第一个不为0的值即为波到时点。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国矿业大学(北京),未经中国矿业大学(北京)许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201610743156.8/,转载请声明来源钻瓜专利网。
- 上一篇:一种汽油关键性质的快速批量预测方法
- 下一篇:一种中医数据处理装置和方法