中文处理工具包
- 可能不是最快的开源中文分词,但很可能是最准的开源中文分词
- 基于BiLSTM模型训练而成
- 包含分词,词性标注,实体识别, 都有比较高的准确率
- 用户自定义词典
pip install foolnltk
import fool
text = "一个傻子在北京"
print(fool.cut(text))
# ['一个', '傻子', '在', '北京']
命令行分词
python -m fool [filename]
词典格式格式如下,词的权重越高,词的长度越长就越越可能出现, 权重值请大于1
难受香菇 10
什么鬼 10
分词工具 10
北京 10
北京*** 10
加载词典
import fool
fool.load_userdict(path)
text = "我在北京***看你难受香菇"
print(fool.cut(text))
# ['我', '在', '北京***', '看', '你', '难受香菇']
删除词典
fool.delete_userdict();
import fool
text = "一个傻子在北京"
print(fool.pos_cut(text))
#[('一个', 'm'), ('傻子', 'n'), ('在', 'p'), ('北京', 'ns')]
import fool
text = "一个傻子在北京"
words, ners = fool.analysis(text)
print(ners)
#[(5, 8, 'location', '北京')]
- 暂时只在Python3 Linux 平台测试通过