some related work about traffic and large language model
内容很好,略。
较全的一个survey
结论:在强指数时间假设下,在最坏情况下,这里可能存在一种基本的“没有免费午餐”现象:似乎不太可能获得自注意力的可证明的次二次算法,同时对于所有输入也是可证明的近似准确的算法。
数据包level bert + 序列的CNN特征
实际上是flow 转5个数据包的图 (40*40),然后利用图像transformer进行。
一阶马尔可夫
数据包level bert + 序列的LSTM特征 和 BFCN同一个作者,设计细节没写。
略
- Low-Quality Training Data Only? A Robust Framework for Detecting Encrypted Malicious Network Traffic
略
略
一眼看上去有点怪的模型
3个数据包的bert (转NLP)
cnn+gru
2页短文?没看懂
transformer + 一些trick做分类
略
分析了92个流量生成器工具
利用GAN生成对抗性flow,但是生成的是特征,不是flow。缺了一半
GAN+LSTM+知识图 生成 flow的时间序列
GAN+flow特征的生成
合成数据包和流标头跟踪, gan +sequence +header
GAN + packet
数据包-->ip+port
GAN学习流量的时间--字节数矩阵
GAN+差分隐私+flow特征
WGAN + 流特征
一个比较全的survey
使用格拉姆角场(GAF)将时间序列数据转换为图像
卷积神经层 (CNN) 与混合密度神经层 (MDN) 和 softmax 层集成
-
包头分布 + JensenShannon Divergence(netgpt)
-
基于模型的相似度评价。
-
bert cls token.