本人曾随队在mrc2018机器阅读理解比赛中获得TOP11
的名次,当时使用的是BIDAF,现尝试使用QANet去尝试dureader数据集
- 残差块: 使用了残差网络来加深网络深度
- 自注意: Google采用了自家的multihead attention 来计算
self attention
- 强化位置信息: QANet强化了位置信息,在每个卷积块中都加入了时间序列信息,可查看
layers / residual_block / add_timing_signal_ld
加入原始位置信息(position embedding)在decoder层做Attention计算
tensorflow 1.6+
jieba
包括生成词典,使用预训练词向量,本模型支持Chinese-Word-Vectors中预训练词向量,下载该模型词向量后在cli.py
中指定即可.
python3 cli.py --prepro
python3 cli.py --train [arguments]
或者直接采用封装好的bash训练
bash train.sh
请先下载全量数据,已封装bash
bash data/download_dureader.sh