[发明专利]联合对称不确定性和超参数优化神经网络的入侵检测方法在审
申请号: | 202310040830.6 | 申请日: | 2023-01-12 |
公开(公告)号: | CN116055175A | 公开(公告)日: | 2023-05-02 |
发明(设计)人: | 王倩;姜海阳;刘韩;王学航;任家东;张炳 | 申请(专利权)人: | 燕山大学 |
主分类号: | H04L9/40 | 分类号: | H04L9/40;G06N3/0442;G06N3/045;G06N3/0464;G06N3/08;G06N3/006;G06F18/211;G06N7/01 |
代理公司: | 石家庄众志华清知识产权事务所(特殊普通合伙) 13123 | 代理人: | 王忠良 |
地址: | 066004 河北*** | 国省代码: | 河北;13 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 联合 对称 不确定性 参数 优化 神经网络 入侵 检测 方法 | ||
1.一种联合对称不确定性和超参数优化神经网络的入侵检测方法,其特征在于包括以下步骤:
S1、数据预处理,对于非数值特征进行独热编码,转换为数值特征,并对数值做归一化处理;
S2、特征选择,利用对称不确定性用于计算特征与类别之间的相关性,利用松散条件下的近似马尔科夫毯用于计算特征与特征之间的冗余关系,将对称不确定性与松散条件下的近似马尔科夫毯联合,形成联合不确定性的特征选择方法,选择最优特征子集;
S3、采用卷积神经网络和记忆神经网络构建CNN-LSTM分类模型,利用CNN学习数据的空间特征,利用LSTM学习数据的时间特征;
S4、使用改进后的PSO算法对CNN-LSTM模型中卷积核大小filter、隐藏神经元个数units、学习率learning rate和池化层参数dropout进行自动超参数优化,最终确定优化后的CNN-LSTM模型;
S5、算法评估,在KDD99、UNSW-NB15数据集上对提出的算法的入侵检测性能进行验证,从准确率、精确率、召回率、F1分数、马修斯相关系数和卡帕相关系数多个评价指标上与其他算法进行对比,证明了算法的优越性,也证明了算法在不同数据集上超参数优化的有效性。
2.根据权利要求1所述的一种联合对称不确定性和超参数优化神经网络的入侵检测方法,其特征在于:步骤S1中对于非数值特征进行独热编码,最大最小归一化方法的公式如下:
Xmax和Xmin分别是特征X的最大值和最小值。
3.根据权利要求1所述的一种联合对称不确定性和超参数优化神经网络的入侵检测方法,其特征在于:步骤S2中,松散条件下的近似马尔可夫毯的公式如下:
其中,xi和xj表示特征,C表示类别标签,δ为松散因子,取值范围是[0,1];
基于松散条件下的近似马尔可夫毯用于冗余特征的聚类,如果特征xi存在马尔科夫毯MBi,那么,特征xi和MBi将被归为同一个簇中,如果不存在,那么就添加一个仅包含xi的新簇,不需要事先指定簇的个数,在完成聚类后,根据SU(xi,C)的值对每个簇中的特征进行排序,簇内排名第一的特征称为占优特征,然后使用每个簇的占优特征对簇进行排序。
4.根据权利要求3所述的一种联合对称不确定性和超参数优化神经网络的入侵检测方法,其特征在于:所述联合不确定性的特征选择方法为在遵循簇排序、簇内特征排序的前提下,充分考虑特征之间组合而形成的联合效应,
特征X和特征Y联合后与类别标签C的联合互信息的定义如下所示:
I(X,Y;C)=H(X,Y)+H(C)-H((X,Y),C)
其中,H(X,Y),H**X,Y),C)定义如下:
H(X,Y)=-∑j∑iP(xi,yj)log2P(xi,yj)
H(C)定义如下:
H(X)=-∑iP(xi)log2P(xi)
使用对称不确定性对上述联合互信息进行标准化,可以得到特征X和特征Y联合后与类别标签C的联合不确定性SU(X,Y;C),如下所示:
其中,P(xi)表示变量X=xi的概率,随机变量Y={y1,y2,…,yj},P(xi,yj)是X和Y的联合概率,H(X,Y)为两个随机变量X和Y的联合熵。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于燕山大学,未经燕山大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202310040830.6/1.html,转载请声明来源钻瓜专利网。