当前位置: 首页 > news >正文

[网络入侵AI检测] CNN-LSTM混合模型

第7章:CNN-LSTM混合模型

欢迎回来

  • 在第1章:分类任务配置(二分类 vs. 多分类)中,我们学习了如何提出正确的问题
  • 在第2章:数据加载与预处理中,我们准备好了数据"食材";在第3章:经典机器学习模型中,我们探索了传统工具
  • 在第4章:深度前馈神经网络(DNN)模型中,我们首次深入研究了深度学习
  • 最近,在第5章:纯卷积神经网络(CNN)模型中,我们发现CNN如何作为"模式检测器"找到局部签名
  • 在第6章:循环神经网络(RNN)模型(LSTM/GRU/SimpleRNN)中,我们学习了RNN(特别是LSTM)如何记忆和学习随时间变化的序列。

现在,如果我们可以将两者的优势结合起来会怎样?想象一下,你有两位高度专业化的安全专家。一位专家(CNN)擅长快速发现信息流中的特定视觉细节或签名。另一位专家(LSTM)具有惊人的记忆力,理解这些细节的整体流动、上下文和演变。

通过让他们一起工作,他们形成了一个强大的团队,能够检测到最复杂和不断演变的网络入侵。

这就是CNN-LSTM混合模型的力量

这些模型结合了CNN从网络流量数据中自动提取局部重要特征的能力,以及LSTM学习这些提取特征中序列模式和时间依赖关系的能力。

这就像拥有一支专门用于强大智能入侵检测的团队。

CNN-LSTM混合模型解决了什么问题?

CNN-LSTM混合模型旨在捕捉序列数据中的局部空间特征和长期时间依赖关系。
对于我们的网络入侵检测(NID)项目,每个网络连接的数据是41个特征的序列(如第2章:数据加载与预处理所述,通常重塑为[samples, 41, 1])。

  • CNN部分将扫描这41个特征(像一个1D序列)。它将自动学习识别重要的"局部签名"或在这些特征中短窗口内可能出现的小特征模式。例如,某些标志位和端口号的组合可能是攻击尝试的局部指示器。
  • LSTM部分然后获取这些"更高级"特征(来自CNN层的输出序列)并按顺序处理它们。它学习这些识别出的模式如何展开或相互关联,捕捉特征集中的更广泛上下文和依赖关系。这有助于模型理解信息的"流动",即使在单个网络连接的特征内,也能更全面地理解其行为。

这种组合使模型能够深入理解网络流量的复杂性质,使其在将连接分类为"正常"或"攻击"(二分类),或精确定位"攻击类型"(多分类)方面非常有效。

CNN-LSTM混合模型的关键概念

CNN-LSTM混合模型本质上是堆叠两种类型的神经网络层:CNN层作为特征提取器,LSTM层作为提取特征的序列处理器。

以下是它们如何协同工作:

1. CNN作为特征提取器(前端)

  • Convolution1D:如第5章:纯卷积神经网络(CNN)模型所学,这些层使用"过滤器"滑动我们的41个特征输入序列。它们自动检测重要的局部模式和关系。例如,当看到特定的协议标志序列时,过滤器可能会强烈激活。
  • MaxPooling1D:卷积后,池化层(同样来自第5章)减少特征图的维度,仅保留最重要的模式检测。这简化了信息,同时保留了关键见解。

关键点:这些CNN和池化层的输出仍然是一个序列。它是更短、更丰富、更抽象的特征序列,代表检测到的局部模式。这非常适合LSTM接下来处理。

2.LSTM作为序列建模器(后端)

  • LSTM:CNN层的输出序列直接馈送到LSTM层(来自第6章:循环神经网络(RNN)模型(LSTM/GRU/SimpleRNN))。LSTM将此CNN提取序列的每个元素视为一个"时间步"。其内部"记忆门"使其能够学习这些提取特征之间的复杂时间依赖关系和序列上下文。它可以记住特征序列早期检测到的模式与后期检测到的模式之间的关系。
  • Dropout:在LSTM层之后,通常添加Dropout层(如第4章:深度前馈神经网络(DNN)模型所述)以防止模型对训练数据过拟合。

3. 分类的输出层

  • Dense输出层:最后,LSTM层的输出(默认情况下是代表整个序列学习状态的单个向量)馈送到Dense层。如第1章:分类任务配置(二分类 vs. 多分类)所学,该层将有1个带sigmoid激活的神经元用于二分类,或N个带softmax激活的神经元用于多分类。

如何构建CNN-LSTM混合模型

我们将使用Keras构建我们的CNN-LSTM模型。步骤涉及组合我们学到的层:

  1. 准备数据:确保网络流量数据归一化并重塑为3D格式[samples, time_steps, features]。对于我们的KDD数据,这是[number_of_connections, 41, 1],如第2章:数据加载与预处理所述。
  2. 启动Sequential模型
  3. 添加Convolution1D:为第一层定义过滤器、核大小、激活和input_shape
  4. 添加MaxPooling1D:对特征图进行下采样。
  5. 添加LSTM:这些直接跟随MaxPooling1D层,处理其顺序输出。
  6. 添加Dropout:防止过拟合。
  7. 添加最终的Dense输出层:配置为二分类或多分类。
  8. 编译模型:定义损失函数、优化器和指标。

让我们看一个示例。假设X_train包含我们归一化和重塑的网络特征,y_train包含标签,如第2章和第1章所述。

示例代码:用于二分类的简单CNN-LSTM

以下是构建用于二分类入侵检测的基本CNN-LSTM模型的方法:

from keras.models import Sequential
from keras.layers import Convolution1D, MaxPooling1D, LSTM, Dense, Dropout
import numpy as np # 用于数据创建示例# --- 假设 X_train 和 y_train 已准备好并重塑 ---
# 为了演示,虚拟数据(1000个样本,41个时间步,每个1个特征)
X_train_dummy = np.random.rand(1000, 41, 1)
y_train_dummy = np.random.randint(0, 2, 1000) # 二分类标签# 定义LSTM输出的大小(神经元数量)
lstm_output_size = 70# 1. 开始定义网络
model = Sequential()# 2. 添加用于特征提取的CNN部分
#    卷积层:64个过滤器,核大小3,relu激活
#    input_shape=(41, 1):我们的数据有41个特征,每个被视为具有1个值的时间步。
model.add(Convolution1D(64, 3, padding="same", activation="relu", input_shape=(41, 1)))
#    池化层:减少序列长度
model.add(MaxPooling1D(pool_size=2))# 3. 添加用于序列建模的LSTM部分
#    LSTM层:处理CNN输出的特征序列
model.add(LSTM(lstm_output_size)) # LSTM单元的数量(这里为70)# 4. 添加Dropout层以防止过拟合
model.add(Dropout(0.1))# 5. 添加输出层(用于二分类,如第1章所述)
model.add(Dense(1, activation="sigmoid")) # 1个神经元,sigmoid用于概率# 6. 编译模型
model.compile(loss="binary_crossentropy", optimizer="adam", metrics=['accuracy'])print("CNN-LSTM混合模型创建并编译完成!")
model.summary() # 打印模型层的摘要

解释:

  • Convolution1D(...)MaxPooling1D(...):这些层作为模型的"眼睛"协同工作,在41个特征中找到局部模式。padding="same"有助于在池化前保持输出长度一致。
  • LSTM(lstm_output_size):这是关键连接!来自MaxPooling1D层的顺序输出(具有减少的time_steps维度,但仍然是一个序列)自动馈送到LSTM层。LSTM然后处理这个抽象特征的序列。
  • 注意在MaxPooling1DLSTM之间没有Flatten层。这是因为LSTM期望顺序输入,而MaxPooling1D已经以正确的3D顺序格式提供它。
  • Dense(1, activation="sigmoid")loss="binary_crossentropy"对于二分类是标准的,如第1章所学。

扩展到更深CNN-LSTM和多分类

你可以通过在LSTM层之前堆叠更多Convolution1DMaxPooling1D块来构建更深的混合模型,甚至通过堆叠多个LSTM层(对较早的LSTM使用return_sequences=True,如第6章所述)。

对于多分类,只有输出层和损失函数会改变,正如第1章:分类任务配置(二分类 vs. 多分类)所学。

from keras.models import Sequential
from keras.layers import Convolution1D, MaxPooling1D, LSTM, Dense, Dropout
# ...(数据准备和重塑如前所述)...# 多分类示例:假设 num_classes = 5(正常、DoS、Probe、R2L、U2R)
num_classes = 5
# y_train_dummy 应为 one-hot 编码,例如 to_categorical(y_train_raw, num_classes=5)lstm_output_size = 70model_multiclass_cnn_lstm = Sequential()
# 第一个CNN块
model_multiclass_cnn_lstm.add(Convolution1D(64, 3, padding="same", activation="relu", input_shape=(41, 1)))
model_multiclass_cnn_lstm.add(MaxPooling1D(pool_size=2))# 第二个CNN块(更深特征提取)
model_multiclass_cnn_lstm.add(Convolution1D(128, 3, padding="same", activation="relu"))
model_multiclass_cnn_lstm.add(MaxPooling1D(pool_size=2))# LSTM层
model_multiclass_cnn_lstm.add(LSTM(lstm_output_size))
model_multiclass_cnn_lstm.add(Dropout(0.1))# 对于多分类(如第1章所述):
model_multiclass_cnn_lstm.add(Dense(num_classes, activation="softmax")) # N个神经元,softmax激活model_multiclass_cnn_lstm.compile(loss="categorical_crossentropy", optimizer="adam", metrics=['accuracy'])print("\n用于多分类的深度CNN-LSTM模型创建并编译完成!")
model_multiclass_cnn_lstm.summary()

多分类的关键区别:

  • Dense(num_classes, activation="softmax"):输出层有num_classes(例如5)个神经元,softmax激活以输出每个类的概率。
  • loss="categorical_crossentropy":当标签是one-hot编码时,这是正确的损失函数。

幕后:CNN-LSTM混合模型如何处理数据

将CNN-LSTM视为信息处理接力赛:

输入数据(41个特征)CNN层(Conv1D + MaxPooling1D)提取的特征序列LSTM层学习的序列上下文密集输出层最终预测原始网络特征(例如,[41, 1])CNN找到局部模式并减少特征序列长度输出抽象特征的序列LSTM处理此序列学习时间依赖关系和整体上下文输出总结序列的单个向量馈送到最终分类层进行二分类/多分类预测输入数据(41个特征)CNN层(Conv1D + MaxPooling1D)提取的特征序列LSTM层学习的序列上下文密集输出层最终预测

在训练期间(我们将在第8章:模型训练生命周期(Keras)中介绍),这个多阶段处理会反复进行。模型将其预测与真实标签进行比较,计算loss,然后调整所有内部参数(CNN过滤器权重、LSTM门权重、密集层权重)以提高其准确性。

深入项目代码参考

让我们看看实际项目代码文件,了解这些混合模型是如何实现的。你可以在KDDCup 99/CNN-LSTM/文件夹(以及NSL-KDD/UNSW-NB15/数据集的类似文件夹)中找到这些内容。

1. CNN-LSTM的数据准备

项目中所有CNN-LSTM模型使用相同的数据加载、归一化和重塑策略,与纯CNN和RNN所示相同。关键是重塑为(samples, 41, 1)

# 来自 KDDCup 99/CNN-LSTM/binary/cnn1.py(及其他)
import pandas as pd
import numpy as np
from sklearn.preprocessing import Normalizer# ...(从CSV加载traindata、testdata,提取X、Y、C、T)...scaler = Normalizer().fit(X)
trainX = scaler.transform(X)
scaler = Normalizer().fit(T)
testT = scaler.transform(T)y_train = np.array(Y)
y_test = np.array(C)# 将输入重塑为[samples, time steps, features]
# 对于KDD,这意味着41个'时间步'(我们的特征),每个有1个值。
X_train = np.reshape(trainX, (trainX.shape[0],trainX.shape[1],1))
X_test = np.reshape(testT, (testT.shape[0],testT.shape[1],1))print("CNN-LSTM的输入数据形状:", X_train.shape) # 将输出类似 (num_samples, 41, 1) 的内容

这个3D形状(num_samples, 41, 1)至关重要。Convolution1D层期望(time_steps, features)作为其input_shape,这里为(41, 1)

2. 简单CNN-LSTM(1 Conv+Pool,1 LSTM)- 二分类

在这里插入图片描述

查看KDDCup 99/CNN-LSTM/binary/cnn1.pyNSL-KDD/CNN-LSTM/binary/cnn1.py

# 来自 KDDCup 99/CNN-LSTM/binary/cnn1.py(简化版)
from keras.models import Sequential
from keras.layers import Convolution1D, MaxPooling1D, LSTM, Dense, Dropout# ...(X_train, y_train, X_test, y_test 如上所述准备好)...lstm_output_size = 70 # 在代码中较早定义cnn = Sequential()
# CNN部分:特征提取
cnn.add(Convolution1D(64, 3, border_mode="same",activation="relu",input_shape=(41, 1)))
cnn.add(MaxPooling1D(pool_length=(2)))
# LSTM部分:对提取的特征进行序列建模
cnn.add(LSTM(lstm_output_size))
cnn.add(Dropout(0.1))
# 输出层:二分类
cnn.add(Dense(1, activation="sigmoid"))# cnn.compile(...) # 编译为 binary_crossentropy, adam, accuracy
# cnn.fit(...)     # 训练调用

观察:

  • Convolution1D层接受(41, 1)输入。border_mode="same"确保在池化前保持输出序列长度。
  • MaxPooling1D(pool_length=(2))减少序列长度。
  • LSTM(lstm_output_size)层直接跟随MaxPooling1D,将其输出作为序列处理。这是混合模型的核心。
  • 输出Dense(1, activation="sigmoid")用于二分类。

3. 更深CNN-LSTM(多个Conv+Pool,1 LSTM)- 二分类

现在,我们来看KDDCup 99/CNN-LSTM/binary/cnn3.py,它展示了更深的CNN前端:

# 来自 KDDCup 99/CNN-LSTM/binary/cnn3.py(简化版)
from keras.models import Sequential
from keras.layers import Convolution1D, MaxPooling1D, LSTM, Dense, Dropout# ...(X_train, y_train, X_test, y_test 如上所述准备好)...lstm_output_size = 70cnn = Sequential()
# 第一个CNN块
cnn.add(Convolution1D(64, 3, border_mode="same",activation="relu",input_shape=(41, 1)))
cnn.add(Convolution1D(64, 3, border_mode="same", activation="relu")) # 另一个Conv1D层
cnn.add(MaxPooling1D(pool_length=(2)))
# 第二个CNN块(更深)
cnn.add(Convolution1D(128, 3, border_mode="same", activation="relu"))
cnn.add(Convolution1D(128, 3, border_mode="same", activation="relu"))
cnn.add(MaxPooling1D(pool_length=(2)))
# LSTM部分
cnn.add(LSTM(lstm_output_size))
cnn.add(Dropout(0.1))
# 输出层
cnn.add(Dense(1, activation="sigmoid"))# cnn.compile(...)
# cnn.fit(...)

观察:

  • 这个模型使用两个Convolution1D层后跟一个MaxPooling1D层,然后用更多过滤器(128)重复这个模式。这创建了一个更强大的CNN特征提取器。
  • 最终MaxPooling1D层的输出仍然是一个序列,然后馈送到单个LSTM层。
  • 输出层和编译对二分类保持一致。

4. 简单CNN-LSTM(1 Conv+Pool,1 LSTM)- 多分类

最后,我们来看KDDCup 99/CNN-LSTM/multiclass/cnn1.py。这将简单CNN-LSTM适应多分类:

# 来自 KDDCup 99/CNN-LSTM/multiclass/cnn1.py(简化版)
from keras.models import Sequential
from keras.layers import Convolution1D, MaxPooling1D, LSTM, Dense, Dropout
from keras.utils.np_utils import to_categorical # 用于标签准备# ...(X_train, y_train1, X_test, y_test1 如上所述准备好)...
# 数据准备:对多分类标签进行one-hot编码
y_train = to_categorical(y_train1)
y_test = to_categorical(y_test1)lstm_output_size = 70cnn = Sequential()
# CNN部分
cnn.add(Convolution1D(64, 3, border_mode="same",activation="relu",input_shape=(41, 1)))
cnn.add(MaxPooling1D(pool_length=(2)))
# LSTM部分
cnn.add(LSTM(lstm_output_size))
cnn.add(Dropout(0.1))
# 输出层:多分类(例如,5个类别)
cnn.add(Dense(5, activation="softmax")) # 5个神经元,softmax激活# cnn.compile(...) # 编译为 categorical_crossentropy, adam, accuracy
# cnn.fit(...)

观察:

  • y_trainy_test标签在输入模型前使用to_categorical(one-hot编码)转换。
  • 用于特征提取和序列建模的CNN和LSTM层与二分类版本相同。
  • 输出层使用Dense(5)(5个类别)和activation="softmax"
  • 损失函数为categorical_crossentropy

这些示例清楚地展示了CNN-LSTM混合模型如何结合卷积层进行强大的局部特征提取和循环层理解这些特征的序列上下文,所有都针对特定分类任务配置。

结论

现在,了解了强大的CNN-LSTM混合模型

理解了这些模型如何利用卷积神经网络(用于检测网络特征中的局部模式)和长短期记忆网络(用于学习这些模式的序列依赖关系和上下文)的优势。

这种组合产生了一个高度鲁棒的模型,能够检测复杂和不断演变的网络入侵。你还看到了如何使用Keras构建这些模型,并为二分类和多分类任务配置它们。

凭借我们多样化的经典、DNN、CNN、RNN和现在的CNN-LSTM混合模型工具包,我们已经准备好应对各种入侵检测挑战。下一个关键步骤是了解如何实际训练这些模型并评估它们的性能。

第8章:模型训练生命周期(Keras)


文章转载自:

http://tY41OQ35.gthwr.cn
http://XJC6nOWJ.gthwr.cn
http://cO64eAZx.gthwr.cn
http://Gy589l9f.gthwr.cn
http://y9Sm2qnW.gthwr.cn
http://2JM1i8C1.gthwr.cn
http://SNsTC1GZ.gthwr.cn
http://3s98XZBz.gthwr.cn
http://jOvMFi1B.gthwr.cn
http://Wm0pirK3.gthwr.cn
http://jCKjK2JU.gthwr.cn
http://YFEMDTn2.gthwr.cn
http://NYZrHdId.gthwr.cn
http://xqNWkXOQ.gthwr.cn
http://ZiWUmYi5.gthwr.cn
http://q1ZfCLw0.gthwr.cn
http://WLLMO0hZ.gthwr.cn
http://LClAhmjN.gthwr.cn
http://8LLU24Pz.gthwr.cn
http://Z6m4Om9u.gthwr.cn
http://TSAdeZdR.gthwr.cn
http://ToCJHD3W.gthwr.cn
http://q9bdvtAA.gthwr.cn
http://gZZDCKQP.gthwr.cn
http://nc1PW7Ok.gthwr.cn
http://63XFHELg.gthwr.cn
http://i1ydkPcj.gthwr.cn
http://NgGxLqIi.gthwr.cn
http://tvNEm6Kr.gthwr.cn
http://2G351ft2.gthwr.cn
http://www.dtcms.com/a/375466.html

相关文章:

  • 使用列表推导式取代map和filter的最佳实践 (Effective Python 第27条)
  • Promise状态和方法都有哪些,以及实现原理
  • jquery基础知识总结
  • Qwen-VL系列-国产大模型开眼看世界
  • OpenEuler部署gitlab(小白的“升级打怪”成长之路)
  • 内存视角看「类、原型、实例」
  • 「类 vs 实例」对比 ,「类 - 原型 - 实例」的关系
  • sft冷启动时数据集构造需要注意哪些因素?为什么要做数据清洗与均衡采样?
  • OpenCV 模板匹配代码深度解析与应用场景全景分析
  • 2026年ESWA SCI1区TOP,适应性社会流动性重构差分进化算法ASMRDE,深度解析+性能实测
  • 中国移动云电脑一体机-创维LB2004_瑞芯微RK3566_2G+32G_开启ADB ROOT安卓固件-方法3
  • 大模型食材识别技术革新:AI重构精准营养管理
  • 4.6 变体
  • 智能充气泵PCBA方案
  • minio大文件断点续传
  • C语言(嵌入式方向)
  • 【大模型手撕】pytorch实现LayerNorm, RMSNorm
  • 执行计划 RAC 笔记
  • 西嘎嘎学习 - C++ 类 对象 - Day 8
  • 如何把PPT转换成PDF?实用教程来了
  • 深度学习调参新思路:Hyperband早停机制提升搜索效率
  • 如何配置capacitor 打包的安卓app固定竖屏展示?
  • Redis中的Zset数据类型
  • 在银河麒麟V10上部署Atlas 300i Duo:从固件到驱动的一站式踩坑笔记
  • 测试报告:“问卷考试系统”项目
  • WOA+LSTM+itransformer时间序列预测模型
  • Nginx运维之路(Docker多段构建新版本并增加第三方模块)
  • 构造方法与代替代码构造方法的注解
  • 开源模型应用落地-基于KTO的Qwen3-4B意图理解精准对齐实践(二十一)
  • 微信小程序加速计开发指南