Chinese NLP package
ZLP 是一个完全基于神经网络的自然语言处理工具包,框架采用谷歌的tensorflow,内容涵盖中文分词/ 词性标注 / 命名实体识别 / 依存句法分析 / 关键词提取 / 文本摘要 / 文本分类 。
-安装
-模块
-使用
-其他
直接从github上clone。即 git clone https://github.com/Pelhans/ZNLP
运行./requirement.sh 来安装依赖
-tensorflow>= 1.3(更低版本的没试过,不过高于1.0的应该就可以)
-pandas
-numpy
-tqdm
sklearn
scipy
networkx(textrank需要)
jieba(textrank可选)
以上几项均通过pip 安装或运行./requirement.sh,目前仅支持python2
包含以下模块:
--中文分词: 基于BLSTM神经网络,采用微软bakekoff分词语料。
--词性标注: 基于BLSTM神经网络,采用人民日报1998年上半年词性标注语料库。
--命名实体识别: 基于BLSTM神经网络,采用由1998年人民日报词性标注语料库处理得到的命名实体识别语料库。
--依存句法分析:采用Danqi 和Mannning 2014年论文提出的神经网络结构,语料库采用清华大学语义依存分析语料库。
--关键词提取:基于TextRank算法,分词&词性标注采用库内模块,也可使用结巴分词。。。
--文本摘要:同样基于TextRank算法,与关键词提取处于同一模块。
单个模块的训练请参考对应文件夹下面的README.md,下面对各个模块的调用做一个说明:
from znlp import cws
sentence = u'们思考问题往往不是从零开始的。就好像你现在阅读这篇文章一样。'
cws.load_Model()
result = cws.cut(sentence)
cws.show(result)
from znlp import pos
sentence = u'词法 分析 终于 完成 了 。 这 都 叫 啥 事 啊 。'
pos.load_Model()
result = pos.ptag(sentence)
pos.show_result(result)
from znlp import ner
sentence = u'我 爱 吃 北京 烤鸭 。'
ner.load_Model()
result = ner.ptag(sentence)
ner.show_result(result)
from znlp import dparser
word = [u"世界", u"第", u"八", u"大", u"奇迹", u"出现"]
pos = [u"n",u"m",u"m",u"a",u"n",u"v"]
parser = dparser.ParserLoader( word, pos)
UAS, LAS, token_num, token_dep = parser.predict(parser.model, parser.dataset)
parser.print_conll(token_num, token_dep)
具体调用请参见 textKeywords/example/example01.py
如有问题,可以发邮件联系我:me@pelhans.com