[发明专利]一种基于深度策略梯度的入侵检测算法在审
申请号: | 202110612057.7 | 申请日: | 2021-06-02 |
公开(公告)号: | CN113344071A | 公开(公告)日: | 2021-09-03 |
发明(设计)人: | 郭薇;张国栋;周翰逊;胡叶帅 | 申请(专利权)人: | 沈阳航空航天大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04;G06N3/08;G06F17/18 |
代理公司: | 沈阳维特专利商标事务所(普通合伙) 21229 | 代理人: | 陈晖 |
地址: | 110136 辽宁省沈*** | 国省代码: | 辽宁;21 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 策略 梯度 入侵 检测 算法 | ||
本发明公开了一种基于深度策略梯度的入侵检测算法。该算法利用LSTM擅长处理时序数据的特点,在DPG算法的基础上,采用深度学习中的Long Short Term Mermory network(LSTM)代替Deterministic Policy Gradient(DPG)算法中的全连接层网络,基于LSTM神经网络构建了入侵检测智能体,并使用了策略梯度算法。入侵检测智能体利用LSTM神经网络输出入侵检测动作概率,基于该概率利用策略梯度算法优化LSTM神经网络参数,使得入侵检测智能体探索到最优的入侵检测策略。
技术领域
本发明公开涉及计算机网络信息安全技术领域,尤其涉及一种基于深度策略梯度的入侵检测算法。
背景技术
深度强化学习技术同时具有感知与决策能力,非常适合入侵检测的控制策略。但是,深度Q-learning(DQN)算法有很多局限性,DQN制定策略时,需要比较各种动作对应的价值大小,当遇到动作空间维度较高或者连续时,很难从中选出一个最大值函数对应的动作。此外,DQN无法学习到一些随机策略,导致很难计算价值函数。相反,作为深度强化学习的另一个代表深度策略梯度(DPG)算法一方面具有很好的收敛性,因为基于策略梯度的学习每次能朝着正确的方向改善一点,另一方面能够随机学习到一些连续动作空间的控制策略。
由于攻击的时序数据且动态变化,DPG算法使用的全连接层网络没有考虑到数据的非线性变化,无法更深层次提取数据特征和信息挖掘。此外,LSTM网络(长短期记忆网络)虽然克服了RNN(循环神经网络)会产生梯度消失或梯度爆炸的问题,但是LSTM网络也无法考虑到金融数据的非线性变化。
发明内容
鉴于此,本发明公开提供了一种基于深度策略梯度的入侵检测算法。将深度学习的神经网络和强化学习的策略梯度算法相结合,同时利用了深度学习的感知能力、特征提取能力以及强化学习的决策能力,然后将其应用在入侵检测。
本发明提供的技术方案,具体为,一种基于深度策略梯度的入侵检测算法,该算法中构建了入侵检测智能体,所述入侵检测智能体包括:能够根据历史入侵检测数据预测未来状态的感知模块;及根据当前入侵检测环境状态和历史信息决定此时采取什么入侵检测策略的决策模块;
应用所述入侵检测智能体,所述入侵检测算法包括如下步骤:
1)获取经过数据处理后的数据x1,x2,...,xT并生成特征向量作为当前环境状态状态st;其中,所述当前环境状态st由入侵检测智能体与入侵检测环境交互生成;
2)选择执行动作at,环境反馈给智能体的奖励rt,以及交互生成的新的环境状态st+1,之后以元组(st,at,rt,st+1)的形式存储在经验池中;
3)入侵检测智能体计算一个入侵检测过程所有时刻入侵检测环境反馈给入侵检测智能体的累积奖励以及期望值;
4)入侵检测智能体根据策略梯度算法更新入侵检测策略πθ,最终实现最大化步骤3)所获得的期望奖励;
5)判断是否到达终止状态,如果是,则执行步骤6),否则返回到步骤2);
6)入侵检测智能体根据最新的入侵检测策略进行入侵检测。
所述入侵检测环境包括:
1)策略:采用随机性策略,通过参数概率分布πθ(a|s)来表示,计算公式如下:
πθ(a|s)=p(a|s;θ) (1)
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于沈阳航空航天大学,未经沈阳航空航天大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110612057.7/2.html,转载请声明来源钻瓜专利网。