天池竞赛 <NLP中文预训练模型泛化能力挑战赛> 解决方案。
模型整体上为简单的硬共享模式,结构如下图1所示。
共享参数部分为一个 RoBERTa 模型,最优模型使用的预训练权重为 HuggingFace 的 transformers 库提供的 hfl/chinese-roberta-wwm-ext-large。相关预训练模型权重文件已下载并放到 user_data/checkpoints/chinese-roberta-wwm-ext-large/
文件夹内。取第一个 [CLS]
Token 对应位置的最后一层隐含层输出为整个句子的特征表示。
每个任务私有的部分都为一层全连接层,将 Transformer 的输出映射到对应的类别数量。
为了给模型一个更好的初始化权重,我们先预训练了三个独立的单任务模型,然后将共享的 Transformer 部分的参数取均值,其余部分参数直接复制得到多任务模型的初始权重。如上图2所示。
在单任务模型的预训练中,OCNLI 与 TNEWS 这两个任务使用了额外的公开可获取的数据集以增强单任务模型的性能。
单个样本的损失为交叉熵损失,一批样本中,先计算三个任务各自相关样本的损失均值,然后取三个均值的加权和作为一批样本的损失。最终方案三个任务损失的权重相同。
项 | 值 |
---|---|
操作系统 | Ubuntu 18.04.4 LTS (Bionic Beaver) |
GPU型号 | NVIDIA Tesla P100 PCIe 16 GB |
GPU驱动版本 | 450.51.06 |
CUDA 版本 | 11.0 |
Python版本 | 3.7.6 |
推荐使用Conda安装所需依赖,我们提供了 environment.yml
文件来快速安装 Python,CUDA,以及所需的其他依赖。我们也提供了 requirements.txt
文件,列出了所需的 Python 依赖项。
- 从官网下载安装Miniconda或者Anaconda;
- 运行以下命令从我们提供的
environment.yml
文件创建一个名为nlpc
的虚拟环境并安装所有需要的依赖项:
conda env create -f environment.yml
- 如果第2步运行成功,请忽略这一步。如果失败,也可以逐行运行以下命令手动创建并安装依赖项:
conda create -n nlpc python=3.7.6
conda activate nlpc
conda install pytorch=1.7.0 torchvision torchtext cudatoolkit=11.0 -c pytorch
pip install transformers==3.5.1
conda install notebook pandas matplotlib scikit-learn flake8 pyyaml
pip install tensorboardX
conda install tensorboard
pip install emojiswitch
- 激活新建的虚拟环境(如果还未激活):
conda activate nlpc
- 进入 code 文件夹以保证下面的命令按预期运行:
cd code
为了方便快速复现我们最终提交的对于测试集B的预测结果,我们提供了最终的模型权重文件以及预处理过后的数据。可以通过以下两种方式的任一种快速生成提交结果:
- 运行
test.sh
文件:
chmod +x tesh.sh
./tesh.sh
- 直接跳到最后 预测 部分。
运行脚本 preprocess.py
会完成所有的数据预处理:
python preprocess.py \
--input-tc-dirpath ../tcdata/nlp_round1_data/ \
--input-additional-dirpath ../user_data/additional_data/ \
--output-dirpath ../user_data/repreprocessed_data/
--input-tc-dirpath
需指定为天池提供的数据所在的文件夹路径。
--input-additional-dirpath
为额外的公开数据集所在的文件夹路径。这些额外的数据包括:
- CLUE 官方提供的 OCNLI,CMNLI 和 TNEWS 这三个任务的公开数据集;
- 公开可获取的 今日头条新闻标题分类的数据集 。
--output-dirpath
为预处理后的文件的存放的文件夹路径,如果文件夹不存在会首先建立相应的文件夹。示例中给出的路径为 ../user_data/repreprocessed_data/
,../user_data/preprocessed_data/
目录下存放的为我们预处理好并上传的数据集,也是我们实际训练使用的数据集,两者应一致。(具体可能存在的微小不一致见后面的 关于可复现性的说明 部分)
所执行的预处理包括:
- 从 CLUE 公开的 OCNLI,CMNLI 和 TNEWS 任务的 json 文件获取得到对应的训练集和验证集的 csv 文件并去掉标签为空的样本;
- 将所有的全角标点符号转换成半角标点符号;
- 将额外的今日头条新闻标题分类数据集和竞赛 TNEWS 数据集在一起做去重操作,确保额外的数据和竞赛数据(包括训练集,验证集和测试集)没有重复且竞赛数据自身没有重复。
- 使用
emojiswitch
库将 OCEMOTION 数据中的不在预训练 Transformer 词汇表中的表情符号转换为对应的文字描述,例如:"😭" -> ":大声哭喊的脸:"; - 将 OCEMOTION 数据中连续重复出现的超长字符串替换成较短的字符串,例如:"[怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒]" -> "[怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒][怒]"。
对于 OCNLI 和 TNEWS 任务,因为 CLUE 原本的的数据已经切分好了训练集与验证集(训练集和验证集为分开的 *_train.json
和 *_dev.json
文件),考虑到官方划分的验证集更均衡,因此这两个任务直接使用官方的划分结果来切分训练集和验证集。对于 OCEMOTION 任务,随机划分20%作为验证集,其余作为训练集。
这一步使用 CMNLI 的训练集加验证集为训练集,以 OCNLI 的验证集为验证集来预训练 OCNLI 单任务模型,使用的配置文件为 roberta-large-first-ocnli-pre-ce-uni.yml
。
运行以下命令执行这一步训练:
python train.py \
--config ../user_data/configs/roberta-large-first-ocnli-pre-ce-uni.yml \
--gpu-ids 0 \
--save-dirpath ../user_data/checkpoints/retrain/ocnli_pre/
训练集样本数大约40万,以32的有效批样本数(因显存限制,梯度累计8步,实际批样本为4)训练2万步(接近但不到2个 epoch),每1万步做一次验证,保存验证集最优的模型权重文件 checkpoint.pth
至 --save-dirpath
指定的文件夹,如果文件夹不存在会首先建立相应的文件夹。训练在单个 NVIDIA Tesla P100 GPU 上大约耗时8.5小时。
每次训练运行(包括后面每一步的训练) --save-dirpath
指定的文件夹下除了保存验证集最优的模型权重文件 checkpoint.pth
之外,还会保存运行本次训练使用的配置文件 config.yml
,训练过程的控制台输出 log.txt
以及用于使用 TensorBoard 可视化训练过程的 events.out.tfevents
文件。
这一步首先加载上一步保存的模型权重,然后以 OCNLI 的训练集为训练集,以 OCNLI的验证集为验证集来继续预训练 OCNLI 单任务模型,使用的配置文件为 roberta-large-first-ocnli-ce-uni.yml
运行以下命令执行这一步训练:
python train.py \
--config ../user_data/configs/roberta-large-first-ocnli-ce-uni.yml \
--gpu-ids 0 \
--load-pthpath ../user_data/checkpoints/retrain/ocnli_pre/checkpoint.pth \
--save-dirpath ../user_data/checkpoints/retrain/ocnli/
应指定 --load-pthpath
命令行参数来加载上一步保存的 checkpoint。训练集样本数5万左右,以32的有效批样本数(因显存限制,梯度累计8步,实际批样本为4)训练2个 epoch,每个 epoch 结束做一次验证,保存验证集最优的模型权重文件 checkpoint.pth
至 --save-dirpath
指定的文件夹。训练在单个 NVIDIA Tesla P100 GPU 上大约耗时1小时。
这一步以处理后的今日头条标题分类额外数据集为训练集,以 TNEWS 验证集为验证集来预训练 TNEWS 单任务模型,使用的配置文件为 roberta-large-first-tnews-pre-ce-uni.yml
。
运行以下命令执行这一步训练:
python train.py \
--config ../user_data/configs/roberta-large-first-tnews-pre-ce-uni.yml \
--gpu-ids 0 \
--save-dirpath ../user_data/checkpoints/retrain/tnews_pre/
训练样本数大约23.5万,以32的有效批样本数(因显存限制,梯度累计8步,实际样本为4)训练2个 epoch,每个 epoch 结束做一次验证,保存验证集最优的模型权重文件 checkpoint.pth
至 --save-dirpath
指定的文件夹。训练在单个 NVIDIA Tesla P100 GPU 上大约耗时3.5小时。
这一步首先加载上一步保存的模型权重,然后以 TNEWS 训练集为训练集,以 TNEWS 验证集为验证集来继续预训练 TNEWS 单任务模型,使用的配置文件为 roberta-large-first-tnews-ce-uni.yml
。
运行以下命令执行这一步训练:
python train.py \
--config ../user_data/configs/roberta-large-first-tnews-ce-uni.yml \
--gpu-ids 0 \
--load-pthpath ../user_data/checkpoints/retrain/tnews_pre/checkpoint.pth \
--save-dirpath ../user_data/checkpoints/retrain/tnews/
训练样本数大约4.8万,以32的有效批样本数(因显存限制,梯度累计8步,实际样本为4)训练2个 epoch,每个 epoch 结束做一次验证,保存验证集最优的模型权重文件 checkpoint.pth
至 --save-dirpath
指定的文件夹。训练在单个 NVIDIA Tesla P100 GPU 上大约耗时50分钟。
因为 OCEMOTION 没有使用相关的额外数据集,因此直接在竞赛数据集上预训练相应的单任务模型。80%数据作为训练集,20%数据作为验证集,使用的配置文件为 roberta-large-first-ocemotion-ce-uni.yml
。
运行以下命令执行这一步训练:
python train.py \
--config ../user_data/configs/roberta-large-first-ocemotion-ce-uni.yml \
--gpu-ids 0 \
--save-dirpath ../user_data/checkpoints/retrain/ocemotion/
训练样本数大约2.8万,以32的有效批样本数(因显存限制,梯度累计16步,实际样本为2)训练2个 epoch,每个 epoch 结束做一次验证,保存验证集最优的模型权重文件 checkpoint.pth
至 --save-dirpath
指定的文件夹。训练在单个 NVIDIA Tesla P100 GPU 上大约耗时1小时。
脚本 param_avg.py
用来读取三个单任务模型的权重文件,将共享部分的参数取均值并融合其余参数组成硬共享模式需要的新的模型权重从而生成一个新的权重文件。
运行以下命令执行这一过程:
python param_avg.py \
--input-pthpaths ../user_data/checkpoints/retrain/ocnli/checkpoint.pth \
../user_data/checkpoints/retrain/ocemotion/checkpoint.pth \
../user_data/checkpoints/retrain/tnews/checkpoint.pth \
--output-pthpath ../user_data/checkpoints/retrain/checkpoint_averaged.pth
input-pthpaths
接收多个路径,为保证生成的新的模型权重文件可以正确的加载,请确保按照 ocnli
,ocemotion
,tnews
这样的顺序传入对应的 checkpoint.pth
文件路径。
--output-pthpath
为新生成的模型权重 checkpoint 文件的路径。
这一步将加载上一步平均与融合之后的模型权重为初始参数,在竞赛提供的所有三个数据集上 Fine-Tune 最终的多任务模型。
运行以下命令执行这一步训练:
python train.py \
--config ../user_data/configs/roberta-large-first-hard-ce-uni.yml \
--gpu-ids 0 \
--load-pthpath ../user_data/checkpoints/retrain/checkpoint_averaged.pth \
--save-dirpath ../user_data/checkpoints/retrain/fine_tune/
--no-validate
--load-pthpath
需指定为平均与融合之后生成的模型权重 .pth
文件路径。
--save-dirpath
指定的文件夹下生成的 checkpoint.pth
文件即是最终的模型权重文件。
--no-validate
代表不切分验证集,将使用所有的竞赛数据进行训练。
在这一步训练中我们首先仅使用训练集来训练(不加 --no-validate
这个命令行参数),通过在验证集上评估得到了最优的学习率与训练的 epoch 数量,然后使用同样的超参数在整个数据集上重新训练了一个模型。最终我们将这两个模型在测试集B上做预测提交了两次,使用所有数据训练的模型分值略高,也是我们的最优成绩。
-
代码中所有的随机数种子都有手动固定,在我们的实验中同样的数据,同样的配置,同样的代码在同样硬件的机器下可以保证训练结果基本完全一致。
-
我们尝试将数据预处理流程在天池实验室复现,逐条对比发现 OCEMOTION 数据的处理结果和我们实际训练时使用的有4条略有不同。下面是这4对数据的具体内容。
训练使用 | 复现生成 |
---|---|
你是哒哒的马蹄。晚安。么么~ | ^^^^你是哒哒的马蹄。晚安。么么~ |
我自己[泪][泪][泪]考这么点儿╯_╰t^tt^tt^tt^tt^tt^tt^t | 我自己[泪][考这么点儿╯_╰^^^^tt^tt^tt^t |
俺老师。有一次对全班训话,估计说话太激动了,上排假牙掉了下来。大家想笑又不敢笑.后来含着笑看到他把假牙又装了上去^^^^^^^ | 俺老师。有一次对全班训话,估计说话太激动了,上排假牙掉了下来。大家想笑又不敢笑.后来含着笑看到他把假牙又装了上去^^^^^^ |
婉婷妹子婉婷妹子婉婷妹子,16天哇。加油加油加油![给力][钟][钟][钟][钟][钟][钟][钟][钟][赞][赞][赞][赞][赞][赞][赞][赞][赞][赞][赞][赞][赞][赞][赞][赞] | 婉婷妹子婉婷妹子婉婷妹子,16天哇。加油加油加油![给力][钟][钟][钟][钟][钟][钟][钟][钟][赞][赞][赞][赞][赞][赞][赞][赞] |
-
因显存限制,根据任务文本长度的大小设置了8或16步的梯度累积,从我们前期的实验来看,使用或不使用梯度累积,使用不同步数的梯度累积实验结果略有不同,且使用更大的梯度累积通常模型性能会有下降。
-
虽然代码支持多 GPU 训练,但所有实验在单 GPU 上训练完成,未进行过多 GPU 的实验,无法确认在多 GPU 环境下是否可以得到一样的结果。
运行以下命令在测试集B上进行预测并将结果写入指定文件夹:
python predict.py \
--config ../user_data/checkpoints/release/config.yml \
--gpu-ids 0 \
--load-pthpath ../user_data/checkpoints/release/checkpoint.pth \
--save-zippath ../prediction_result/submit.zip
预测时 --config
指定的配置文件需保证和将要加载的模型训练时使用的配置文件相同,因此建议使用训练时生成并保存到指定的 --save-dirpath
文件夹下 config.yml
文件来确保搭建的模型和将要加载的权重相匹配。
示例中 --load-pthpath
指定的为我们上传的最终模型权重文件,如果运行了上面的训练复现流程,也可以指定为最后 Fine-Tune 生成的 checkpoint.pth
文件。
--save-zippath
为指定的最终预测结果 .zip
压缩文件路径,如果所在的文件夹不存在会首先建立相应的文件夹。最终文件夹内实际上会先生成三个任务各自对应的 .json
文件并保留,然后将这三个 .json
文件打包生成 .zip
文件。
虽然我们最终的模型仅使用了较为简单的损失函数以及恒定的任务权重,但我们尝试过多种方法来提升模型性能,而大部分都没有使模型性能取得明显的提升。一些主要的尝试包括:
-
DTP
:我们实现了论文 Dynamic Task Prioritization for Multitask Learning 中提出的多任务学习动态任务权重调整方法,但模型整体性能出现大幅下降。我们提供了相应的配置文件roberta-large-first-hard-ce-dtp.yml
。 -
UCT
:我们实现了论文 Multi-Task Learning Using Uncertainty to Weigh Losses for Scene Geometry and Semantics 提出的多任务学习动态任务权重调整方法,但模型性能没有明显的提升。我们提供了相应的配置文件roberta-large-first-hard-ce-uct.yml
。 -
FocalLoss
:不使用经典的交叉熵损失函数,而是使用 Focal Loss 作为单样本的损失函数。模型性能没有明显提升。我们提供了相应的配置文件roberta-large-first-hard-focal-uni.yml
。 -
SoftF1Loss
:不使用经典的交叉熵损失函数,而是使用 Soft F1 Loss 作为单样本的损失函数。模型性能没有明显提升。我们提供了相应的配置文件roberta-large-first-hard-f1-uni.yml
。
需要说明的是,虽然以上提供的配置文件是以 RoBERTa-Large 模型为基础(因为我们提供的预训练模型权重是 Large 模型的权重),但由于时间限制,实际上这些方法是否奏效是在 RoBERTa-Base 模型上实验的。