/SOHU_competition

Sohu's 2018 content recognition competition 1st solution(搜狐内容识别大赛第一名解决方案)

Primary LanguageJupyter Notebook

分析流程

Preprocess EDA&Extract.ipynb

  1. preprocess/parse_html.py

    过滤 html tag 【python2】

  2. preprocess/generate_text_feature.py

    生成csv特征

  3. preprocess/cut_word.py

    生成分词后的txt

  4. preprocess/train_tfidf.py

    提取TFIDF特征 + SVD降维
    data/make_pipeline.pkl
    data/train_x_250.pkl

  5. preprocess/process_features.py

    提取TF-IDF的特征 利用训练好的TFIDF+SVD模型来处理我们的测试文本

  6. ocr/demo.py

    OCR文字识别

  7. preprocess/ocr_features.py

    整合OCR News_ocr_train_to_text.txt & News_ocr_test_to_text.txt

  8. 再次处理整合后的文本

os.system('python3 generate_text_feature.py News_ocr_train_to_text.txt')
os.system('python3 cut_word.py News_ocr_train_to_text.txt')
os.system('python3 process_features.py ocr_train')

# 需要把测试集的图片放在相应的位置然后使用
os.system('python3 generate_text_feature.py News_ocr_test_to_text.txt')
os.system('python3 cut_word.py News_ocr_test_to_text.txt')
os.system('python3 process_features.py ocr_test')

Feature Extraction train&predict.ipynb

# 把model目录下的py都import了,直接在ipynb运算
from config import Config

Stacking stacking.ipynb

在stacking第二层模型中我们还加入了深度融合的方法,论文地址

  • TRAIN_X = '../data/All_cut_train_text.txt'
  • TEXT_X = '../data/' + 'News_cut_test_text.txt'
# 第一次stacking
the kflod cv is :  0.7423267326732673
total scores is  0.7366749174917492

# 使用pseudo-labeling做第二次stacking
the kflod cv is :  0.7402870576589953
total scores is  0.7374167982446459

# save data/pickle.pkl

print(count_one) --> 3
print(count_one / len(results)) --> 0.08571428571428572
print(count_zero / len(results)) --> 0.6571428571428571
print(count_two / len(results)) --> 0.2571428571428571

简介

第二届搜狐内容识别大赛冠军LuckyRabbit团队的解决方案,关于参赛细节和详解,请参阅说明文档

代码流程

整个代码分为数据预处理、特征提取、单模型、stacking模型融合、trick部分 img

Input

输入数据是HTML格式的新闻和附带的图片

<title>惠尔新品 | 冷色系实木多层地板系列</title> <p>  </p> <br/><p>  <span style="font-size: 16px;">冷色系实木多层系列全新上市</span></p>	P0000001.JPEG;P0000002.JPEG; 

Preprocessing

  • 文本翻译数据增强:把中文翻译成英文、再把英文翻译回中文,代码中没有给出,可自行调API接口
  • 图片数据增强:图片旋转、平移、加噪声、过采样
  • 使用jieba分词为基本分词组件

Feature Extraction

  • gensim训练好的300维词向量 百度云盘
  • TFIDF 特征 + SVD进行降维度
  • 字向量特征
  • 基础特征:是否含有手机号、微信号等
  • OCR文字提取 提取图片上包含的文字来补充文本分类信息 img

单模型

这里拿一个经典的模型来做一个例子, 我们把ocr提取出来的文本和新闻文本分别输入到同一个embedding层,随后再连接做分类 img 各种模型的得分如下

模型或方法 得分F1-measure
catboost 0.611
xgboost 0.621
lightgbm 0.625
dnn 0.621
textCNN 0.617
capsule 0.625
covlstm 0.630
dpcnn 0.626
lstm+gru 0.635
lstm+gru+attention 0.640
(ps 由于大赛评分系统关闭了,个别模型得分可能不太准确)

模型融合

Stacking

关于stacking这里有一篇很好的模型融合方法的介绍 我们比赛中使用的stacking模型结构如下图所示 img

Snapshot Emsemble

在stacking第二层模型中我们还加入了深度融合的方法,论文地址

Pesudo Labeling

我们使用的另外一个trick就是pesudo-labeling 方法,它适用于所有给定测试集的比赛 教程

方法效果如下

模型或方法 得分F1-measure
单一模型 0.642
stacking 0.647
stacking+trick 0.652

代码结构

|- SOHU_competition
| |- data
| | |-result 模型输出结果
| | |- ···
| |- ckpt # 保存模型
| |- img # 说明图片
| |- src # 模型代码
| | |- model # 模型
| | | |- model_basic # 定义模型训练方法等
| | | |- attention_model # 模型定义
| | | |- ···
| | |- preprocess
| | | |- EDA&Extract.ipynb # 特征处理和提取流程
| | | |- ···
| | |- ocr
| | |- train&predict.ipynb # 单模型的训练和测试
| | |- stacking.ipynb # 模型融合

使用方式:

  • git clone https://github.com/zhanzecheng/SOHU_competition.git
  • 下载新闻文本训练文件,放在 ./data/路径下,地址,图片文件过大,请自行去官网下载
  • 下载ocr模型文件,放在 ./src/ocr/ctpn/checkpoints/ 路径下,模型地址
  • pip3 install -r requirement.txt
  • 下载词向量,放到 ./data 目录下
  • 执行 EDA&Extract.ipynb
  • 执行 train&predict.ipynb
  • 执行 stacking.ipynb

感谢

感谢两位帅气的队友HiYellowCyupeihua

这里还有我们的答辩PPT,如果需要的话自行下载