[发明专利]一种基于循环神经网络的股指价格预测方法在审

专利信息
申请号: 201711428910.X 申请日: 2017-12-26
公开(公告)号: CN108154435A 公开(公告)日: 2018-06-12
发明(设计)人: 刘震;王惠敏;薛腾腾;王理同 申请(专利权)人: 浙江工业大学
主分类号: G06Q40/04 分类号: G06Q40/04;G06Q10/04;G06N3/08
代理公司: 杭州天正专利事务所有限公司 33201 代理人: 王兵;黄美娟
地址: 310004 浙江省杭州市*** 国省代码: 浙江;33
权利要求书: 查看更多 说明书: 查看更多
摘要: 一种基于注意力机制的循环神经网络预测股指价格的方法,具体步骤如下:1)收集和清洗股票指数及其所包含的个股的历史价格数据;2)利用注意力机制,对模型的输入值进行加权调整;3)将上述加权后的模型的输入值输入到循环神经网络中进行模型的训练和预测。该方法可以很巧妙的提取出股指价格的各类影响因子的深层特征,与简单的单因子循环网络或者传统的多因子循环网络相比,该方法能够提高股指价格预测的准确性。
搜索关键词: 循环神经网络 注意力机制 价格预测 循环网络 股票指数 加权调整 历史价格 影响因子 传统的 单因子 预测 加权 清洗
【主权项】:
一种基于循环神经网络的股指价格预测方法,具体步骤如下:1)、收集和清洗股票指数及其所包含的个股的历史价格数据;具体包括:(11)借用免费开源的Python数据接口Tushare,获取一定时期内的股指及其成分股的每分钟收盘价数据;(12)由于节假日、停牌等不可避免的因素,会导致数据有部分缺失,所以在正式建模之前需要先对有缺失的数据进行填充;具体选择的方法是:对于有缺失数据的股票数据,以上一个一分钟的收盘价对其进行补齐,对于在该时期内停盘的股票,将该股从研究对象中剔除;最终得N支符合要求的个股完整数据;(13)为了避免原始输入变量由于量纲与数量级的不同对模型的训练过程造成影响,在正式开始训练前,对原始数据进行无量纲化处理,标准化公式为:<mrow><msubsup><mi>x</mi><mi>t</mi><mi>k</mi></msubsup><mo>=</mo><mfrac><mrow><msubsup><mi>x</mi><mi>t</mi><mi>k</mi></msubsup><mo>-</mo><mi>m</mi><mi>e</mi><mi>a</mi><mi>n</mi><mrow><mo>(</mo><msup><mi>x</mi><mi>k</mi></msup><mo>)</mo></mrow></mrow><mrow><mi>s</mi><mi>t</mi><mi>d</mi><mrow><mo>(</mo><msup><mi>x</mi><mi>k</mi></msup><mo>)</mo></mrow></mrow></mfrac><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>1</mn><mo>)</mo></mrow></mrow>其中表示第k支股票t时刻的原始历史价格数据,xk表示第k支股票的历史价格数据向量。2)、利用注意力机制,对模型的输入值进行加权调整;具体包括:(21)对于给定的输入序列X=(x1,x2,...,xT),首先在时刻t,学习一个从原始输入序列xk到隐藏层ht的映射:ht=f1(xt,ht‑1)  (2)式中,ht∈Rm,表示网络在时刻t处的隐藏层的节点,m则代表隐藏层节点的个数,f1(·)可以是任意一个非线性激活函数,对于时间序列,一般就直接采用LSTM结构。(22)再将上述得到的隐藏层ht和第k个原始输入序列做如下运算:<mrow><msubsup><mi>e</mi><mi>t</mi><mi>k</mi></msubsup><mo>=</mo><msubsup><mi>v</mi><mi>e</mi><mi>T</mi></msubsup><mi>tanh</mi><mrow><mo>(</mo><msub><mi>W</mi><mi>e</mi></msub><msub><mi>h</mi><mrow><mi>t</mi><mo>-</mo><mn>1</mn></mrow></msub><mo>+</mo><msub><mi>U</mi><mi>e</mi></msub><msup><mi>x</mi><mi>k</mi></msup><mo>)</mo></mrow><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>3</mn><mo>)</mo></mrow></mrow>式中,<mrow><msubsup><mi>&alpha;</mi><mi>t</mi><mi>k</mi></msubsup><mo>=</mo><mfrac><mrow><mi>exp</mi><mrow><mo>(</mo><msubsup><mi>e</mi><mi>t</mi><mi>k</mi></msubsup><mo>)</mo></mrow></mrow><mrow><msubsup><mi>&Sigma;</mi><mrow><mi>i</mi><mo>=</mo><mn>1</mn></mrow><mi>n</mi></msubsup><mi>exp</mi><mrow><mo>(</mo><msubsup><mi>e</mi><mi>t</mi><mi>i</mi></msubsup><mo>)</mo></mrow></mrow></mfrac><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>4</mn><mo>)</mo></mrow></mrow>此处We∈RT×m,Ue∈RT×T都是需要训练的参数。而即为所训练得到的注意力权重。注意力权重可以用于衡量第k个输入序列xk的第t个值对目标变量的影响程度,若所对应的值越大,则说明对的权重加的就越大,从而证明该值对目标变量越重要。此外,由于对套用了Softmax函数,故所有的加和为1。(23)有了上述求得的注意力权重之后,就可以对输入序列做如下变换:<mrow><msub><mover><mi>x</mi><mo>~</mo></mover><mi>t</mi></msub><mo>=</mo><msup><mrow><mo>(</mo><msubsup><mi>&alpha;</mi><mi>t</mi><mn>1</mn></msubsup><msubsup><mi>x</mi><mi>t</mi><mn>1</mn></msubsup><mo>,</mo><msubsup><mi>&alpha;</mi><mi>t</mi><mn>2</mn></msubsup><msubsup><mi>x</mi><mi>t</mi><mn>2</mn></msubsup><mo>,</mo><mn>...</mn><mo>,</mo><msubsup><mi>&alpha;</mi><mi>t</mi><mi>N</mi></msubsup><msubsup><mi>x</mi><mi>t</mi><mi>N</mi></msubsup><mo>)</mo></mrow><mi>T</mi></msup><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>5</mn><mo>)</mo></mrow></mrow>之后,就可以用加过注意力权重之后的输入序列
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江工业大学,未经浙江工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201711428910.X/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

tel code back_top