2019.03.09更新:
- 更新至Python3.X
- 更新至Pytorch 0.4+(移除Variable等)
- 使用mask作 Piece Pooling
- 相比FilterNYT,建议使用大版本数据集NYT
2019.03.05:
修复mask piece wise
的bug.
- 更新至pytorch 0.4+, 0.3版本不兼容
2018.11.3:
基于mask的use_pcnn=True
目前有一些问题,正在修改, 建议:
- 直接使用
use_pcnn=False
测试,性能差不太多 - 使用mask修改之前的版本: https://github.com/ShomyLiu/pytorch-relation-extraction/tree/7e3ef1720d43690fc0da0d81e54bdc0fc0cf822a
2018.10.14更新:
全监督的关系抽取PCNN(Zeng 2014)的代码地址: PCNN
2018.9.10 更新:
- 参考OpenNRE使用mask可以快速计算piece wise pooling.
- 修改NYT 53类数据处理 (完成)
- 修改NYT 27类数据处理 (未完成)
数据处理已经修改
使用Pytorch 复现 PCNN+MIL (Zeng 2015) 与 PCNN+ATT (Lin 2016), 以及两个模型在两个大小版本的数据集上(27类关系/53类关系)的表现对比。
相关博客:
在代码的组织,结构设计上, 主要参考 陈云Pytorch实战指南 (个人推荐)。因此一些实现细节就不再赘述了,可以参考陈云的实战指南。
环境:
- Python 2.X
- Pytorch 0.3.1
- fire
简单介绍主要目录:
├── checkpoints # 保存预加载模型
├── config.py # 参数
├── dataset # 数据目录
│ ├── FilterNYT # SMALL 数据
│ ├── NYT # LARGE 数据
│ ├── filternyt.py
│ ├── __init__.py
│ ├── nyt.py
├── main_mil.py # PCNN+ONE 主文件
├── main_att.py # PCNN+ATT 主文件
├── models # 模型目录
│ ├── BasicModule.py
│ ├── __init__.py
│ ├── PCNN_ATT.py
│ ├── PCNN_ONE.py
├── plot.ipynb
├── README.md
├── utils.py # 工具函数
这份代码基本上是按照陈云的指南模仿来写的。 数据模型分开,参数/配置单独文件, 并且使用fire 库来管理命令行参数,更加方便修改参数。
因为PCNN+ONE和PCNN+ATT的训练,测试方法不太一样,因此为了简单起见, 分别写了主文件: main_mil.py
与main_att.py
。
训练方式一样,如使用PCNN+ONE 训练大数据集, 后面可以直接修改参数, 默认使用config.py
的参数:
python main_mil.py train --data="NYT" --batch_size=128
注:需要提前按照下一节处理下数据(主要是生成npy格式的数据,方便直接被模型导入).
为了节省空间, 上传了LARGE和SMALL两份的原生数据,因此需要用数据预处理下,从而生成npy格式数据。
首先下载两份原始数据,地址:
数据格式简单说明:
- 第一行: 两个实体ID: ent1id ent2id
- 第二行: bag标签和bag内句子个数,其中由于少数bag有多个label(不会超过4个),因此句子label用4个整数表示,-1表示为空,如: 2 4 -1 -1 3 表示该bag的标签为2和4,然后包含3个句子
- 后续几行表示该bag内的句子
将两个zip放到dataset
目录下,解压,这样会形成两个目录 ,一个NYT, 一个FilterNYT, 其中LARGE数据集在NYT目录,SMALL数据在FilterNYT内,这里的原始数据分别是从Zeng 2015 以及 Lin2016 的开源代码中获得。
对于LARGE数据:
-
切换到NYT目录下,
-
编译执行extract_cpp目录的extract.cpp:
g++ extract.cpp -o extract
, 之后执行:./extract
, 得到bag_train.txt, bag_test.txt, vector.txt
(在NYT目录内),该cpp是Lin2016预处理的代码 -
切换回主目录:执行数据预处理:
python dataset/nyt.py
这样就会在NYT目录下生成一系列的npy文件。
对于SMALL数据
- 直接执行
python dataset/filternyt.py
即可在FilterNYT的目录下生成npy文件。
生成的NPY文件,均使用Pytorch的Dataset来直接导入,具体代码见 nyt.py
与filternyt.py
的 *Data
类.
数据预处理完毕之后,即可按照上述的命令来训练/测试。
在复现的过程了花了不少功夫,踩了不少坑,简单记一下:
-
优化函数使用
Adadelta
而不是Adam
, 用SGD
也可以,不过不如Adadelta
效果好。 -
Zeng 2015的theano代码中,关于select instance 和predict的地方,有些错误(并没有取概率最大的instance)
-
BatchSize相对大一些效果要好(128)
关于结果的说明可以在博客查看。
使用此代码可以自愿选择引用:
@inproceedings{liu2019reet,
title={REET: Joint Relation Extraction and Entity Typing via Multi-task Learning},
author={Liu, Hongtao and Wang, Peiyi and Wu, Fangzhao and Jiao, Pengfei and Wang, Wenjun and Xie, Xing and Sun, Yueheng},
booktitle={CCF International Conference on Natural Language Processing and Chinese Computing},
pages={327--339},
year={2019},
organization={Springer}
}