- Author: 马肖
- E-Mail: maxiaoscut@aliyun.com
- GitHub: https://github.com/Albertsr
- 算法论文: Isolation Forest [Liu et.al, 2008]
- 算法解析: Isolation Forest算法解析
- 算法应用: isolationforest.py
-
思路一:基于样本的重构误差
-
算法解析: Chapter 1:基于样本的重构误差
-
算法论文: AI^2 : Training a big data machine to defend [Veeramachaneni et.al, 2016]
-
算法实现
- 基于KernelPCA重构误差的异常检测: Recon_Error_KPCA.py
- 基于LinearPCA重构误差的异常检测: Recon_Error_PCA.py
- 纯Numpy版本: Recon_Error_PCA_Numpy_SVD.py
- 不调用scikit-learn,只调用numpy,通过SVD实现PCA,再进行异常检测
- 返回结果与Recon_Error_PCA完全一致
-
-
思路二:基于样本在Major/Minor Principal Component上的偏离度
-
术语定义:Major——累计约占50%的最大几个特征值对应的主成分;Minor——特征值小于0.2对应的主成分
-
算法论文: A Novel Anomaly Detection Scheme Based on Principal Component [Shyu et.al, 2003]
-
算法实现: RobustPCC.py
-
-
实证分析:异常样本在最大、最小的若干特征值对应的主成分上具有最大的方差
- 理论分析: Chapter 3. 实证分析:异常样本在最前、最后的若干主成分上具有最大的方差
- 验证代码: max_ev_decrease.py
- 验证细节与结果: 多个随机数据集证明异常样本在最前与最后的主成分上具有最大的方差
-
算法解析:
-
算法实现:
- 马氏距离的初始定义Python实现: mahal_dist.py
- 马氏距离的变体Python实现: mahal_dist_variant.py
-
马氏距离及其变体对样本异常程度的判定是一致的
- 验证代码: verify_mahal_equivalence.py
- 验证方案与实验细节:马氏距离及其变体对样本的异常程度评估完全一致
- 算法论文: LOF:Identifying Density-Based Local Outliers
- 算法解析: Local Outlier Factor算法解析
- 算法应用: LocalOutlierFactor.py
- 步骤一: 生成一系列随机数据集,每个数据集的行数(row)、列数(col)、污染率(contamination)均从某区间内随机抽取
- 步骤二: 各个无监督异常检测算法根据指定的contamination返回异常样本的索引(anomalies_indices)
- 步骤三: 确定baseline
- 如果数据集中异常样本的索引已知(记为observed_anomaly_indices),则以此作为baseline
- 如果数据集中异常样本的索引未知,则以Isolation Forest返回的异常样本索引作为baseline
- 步骤四: 比较各算法返回的异常样本索引与baseline的共同索引个数,个数越多,则认为此算法的检测效果相对越好
- 步骤五: 不同的数据集对异常检测算法的性能可能会有不同的评估,因此可取众数(mode)来判定各算法的性能排序
- Python代码: unsupervised_detection_contrast.py (Jupyter交互式运行代码能更直观地展示验证过程)
- 根据算法在特定数据集上的异常检测性能降序排列,10个随机数据集的对比结果如下图所示:
- RobustPCC重点考察了样本在major/minor Principal Component上的偏差,论文作者认为异常样本在主成分空间内的投影主要集中在上述两类主成分上
- RobustPCC在构建过程中,需要通过马氏距离(变体)检测并剔除数据集中一定比例(gamma)的潜在异常样本,以保证RobustPCC的有效性
- RobustPCC需要根据指定的分位点参数(quantile)来设定样本异常与否的阈值,个人在实验中适度增大了gamma、quantile的取值,进一步降低FPR,提升鲁棒性
- 实验结果表明,RobustPCC具有优良的异常检测性能
- 引入核函数(对比实验取RBF核),无需显式定义映射函数,通过Kernel Trick计算样本在高维特征空间(希尔伯特空间)内的重构误差
- 高维(或无穷维)主成分空间对样本具有更强的表出能力,在低维空间内线性不可分的异常样本在高维空间内的投影将显著区别于正常样本
- 相应地,异常样本在高维(或无穷维)主成分空间内的重构误差将明显区分于正常样本,从而使得Recon_Error_KPCA的异常检测能力显著高于Recon_Error_PCA
- Isolation Forest(孤立森林)表现稳定,在验证数据的异常索引未知情况下,个人将其预测值作为baseline,用于衡量其它算法的性能
- Mahalabonas Distance(马氏距离)实际上考虑了样本在所有主成分上的偏离度,检测性能紧跟Recon_Error_KPCA之后
- LOF考虑了局部相邻密度,它存在一定的局限性:对于相关性结构较特殊的异常样本(anomalies in terms of different correlation structures)的检测能力不足
- 上述实验结论受到实验数据集的样本构成、样本数量等多方面因素的影响,不一定具备普适性
- 在实际运用中,需要根据数据集本身的特点予以灵活选择相应的异常检测算法
- 算法论文: Anomaly Detection with Partially Observed Anomalies
- 算法解读: ADOA算法解读
- 算法实现: ADOA.py 【其中包含:用于返回聚类中心子模块 cluster_centers.py】
-
PU Learning三大处理方法: PU Learning三大处理方法详细解读
-
思路一:Two Step Strategy + Cost-Sensitive Learning
- 算法解读:
- 核心**: PU Learning中的Two Step Strategy与Cost-Sensitive Learning相结合
- Two Step Strategy: Two Step Strategy详解
- Cost-Sensitive Learning: Cost-Sensitive Learning详解
- 算法论文: POSTER_ A PU Learning based System for Potential Malicious URL Detection
- 算法实现: pu_learning.py
- 算法解读:
-
思路二:Biased Learning
-
思路三:Class Prior Incorporation
- 算法一:ADOA
- 算法二:Biased SVM
- 算法三:Weighted LR
- 算法四:PU Learning + Cost-Sensitive Learning
-
选取的模型评估指标: AUC、F1_Score、Coverage、G-Mean、Recall、ACC
-
Coverage详解
-
代码实现: coverage.py
-
G-Mean
-
出处: Addressing the Curse of Imbalanced Training Sets: One-Sided Selection [Miroslav Kubat, Stan Matwin; 1997]
-
代码实现: gmean.py
-
定义:
-
-
对比思路:
-
步骤一: 生成一系列随机数据集,其中包含已观察到的异常样本集(记为正样本集P),无标签样本集(记为U)
-
步骤二: 各个半监督异常检测算法对U集进行预测并返回预测值y_pred
-
步骤三: 生成U集时,其真实标签y_true是已知的,根据y_true、y_pred计算半监督异常检测算法的性能
-
步骤四: 不同的模型评估指标、不同的数据集对算法的性能有不同的评估,因此根据多个随机数据返回多个模型评估指标对应的值,再进行比较
-
-
对比结果:
- 备注:每一列表示以对应列名为模型评估指标时,在相应数据集上表现最优的算法
- 示例:第1列以AUC作为评估指标,根据10个随机数据集的结果取众数,Biased_SVM的表现是最佳的
-
解析
- 对比实验证明:各半监督异常检测算法均有各自的优势,但PUL CostSensitive的Recall最高,表明FN的高代价起到了一定效果
-
备注
- 上述实验结论受到实验数据集的样本构成、样本数量等多方面因素的影响,不一定具备普适性
- 在实际运用中,需要根据数据集本身的特点予以灵活选择相应的异常检测算法
- ADOA采用孤立森林与聚类相结合,KADOA运用KernelPCA重构误差替代孤立森林进行异常检测,其它思路与ADOA一致
-
对比代码: adoa_kadoa_contrast.py
-
对比结果: 在数据集、参数设置完全一致的情况下,KADOA的性能显著优于ADOA,但此结论有待更多数据集予以验证