[发明专利]基于降维技术优化的循环神经网络的股市数据分析方法有效
申请号: | 201911057108.3 | 申请日: | 2019-10-24 |
公开(公告)号: | CN110827148B | 公开(公告)日: | 2020-07-24 |
发明(设计)人: | 宋亚童;胡俊丰;于润祥 | 申请(专利权)人: | 宋亚童 |
主分类号: | G06Q40/04 | 分类号: | G06Q40/04;G06N3/04;G06N3/08 |
代理公司: | 西安长和专利代理有限公司 61227 | 代理人: | 黄伟洪 |
地址: | 710126 陕西省西安市长安*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 技术 优化 循环 神经网络 股市 数据 分析 方法 | ||
本发明属于金融信息数据处理技术领域,公开了一种基于降维技术优化的循环神经网络的股市数据分析方法,对数据集分别先做因子分析,分别取出其质因子的第一类与第二类;找到参变量,并分析参变量随时间变化对股票涨跌的关系;把参变量代入LSTM模型进行预测,优化后的LSTM在每个激励源处加入了遗忘门,对先前信息进行筛选。本发明对LSTM神经网络在金融领域的拓展,成功的把遗忘门的概念应用于股市分析,并提高了精确度;在数据与处理中引入降维算法并进行对比。本发明突出了降维技术的优势以及LSTM网络的准确性,使得股市预测比传统的分析方法更加可信;预测可以应用到实际中。
技术领域
本发明属于金融信息数据处理技术领域,尤其涉及一种基于降维技术优化的循环神经网络的股市数据分析方法。
背景技术
目前,最接近的现有技术:主成分分析法,在许多领域的研究与应用中,通常需要对含有多个变量的数据进行观测,收集大量数据后进行分析寻找规律。多变量大数据集无疑会为研究和应用提供丰富的信息,但是也在一定程度上增加了数据采集的工作量。更重要的是在很多情形下,许多变量之间可能存在相关性,从而增加了问题分析的复杂性。如果分别对每个指标进行分析,分析往往是孤立的,不能完全利用数据中的信息,因此盲目减少指标会损失很多有用的信息,从而产生错误的结论。因此需要找到一种合理的方法,在减少需要分析的指标同时,尽量减少原指标包含信息的损失,以达到对所收集数据进行全面分析的目的。由于各变量之间存在一定的相关关系,因此可以考虑将关系紧密的变量变成尽可能少的新变量,使这些新变量是两两不相关的,那么就可以用较少的综合指标分别代表存在于各个变量中的各类信息。主成分分析就属于这类降维算法。PCA即主成分分析方法,是一种使用最广泛的数据降维算法。PCA的主要思想是将n维特征映射到k维上,这k维是全新的正交特征也被称为主成分,是在原有n维特征的基础上重新构造出的k维特征。PCA的工作就是从原始的空间中顺序地找一组相互正交的坐标轴,新的坐标轴的选择与数据本身是密切相关的。其中,第一个新坐标轴选择是原始数据中方差最大的方向,第二个新坐标轴选取是与第一个坐标轴正交的平面中使得方差最大的,第三个轴是与第1,2个轴正交的平面中方差最大的。依次类推,可以得到n个这样的坐标轴。通过这种方式获得的新的坐标轴,大部分方差都包含在前面k个坐标轴中,后面的坐标轴所含的方差几乎为0。
基于SVD分解协方差矩阵实现PCA算法:
输入:数据集X={x1,x2,…xN},需要降到k维。
1)去平均值,即每一位特征减去各自的平均值。
2)计算协方差矩阵XXT。
3)通过SVD计算协方差矩阵的特征值与特征向量。
4)对特征值从大到小排序,选择其中最大的k个。然后将其对应的k个特征向量分别作为列向量组成特征向量矩阵。
5)将数据转换到k个特征向量构建的新空间中。
传统的循环神经网络,RNN是一种特殊的神经网络结构,它是根据″人的认知是基于过往的经验和记忆″这一观点提出的;它与DNN,CNN不同的是:它不仅考虑前一时刻的输入,而且赋予了网络对前面的内容的一种“记忆”功能。RNN之所以称为循环神经网路,即一个序列当前的输出与前面的输出也有关。具体的表现形式为网络会对前面的信息进行记忆并应用于当前输出的计算中,即隐藏层之间的节点不再无连接而是有连接的,并且隐藏层的输入不仅包括输入层的输出还包括上一时刻隐藏层的输出。
综上所述,现有技术存在的问题是:
(1)现有的主成分分析法以及传统的循环神经网络进行预测仅利用其中为数不多的两个或三个,而对于其余指标则进行忽略,导致数据结果不准确。
(2)传统的RNN算法如果利用梯度下降法进行优化,则会出现“梯度消失”或“梯度爆炸”的严重问题,数据的准确率低。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于宋亚童,未经宋亚童许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911057108.3/2.html,转载请声明来源钻瓜专利网。